Inteligência Artificial e Florescimento Humano: Reclamando a Tecnologia para a Humanidade
https://www.youtube.com/watch?v=VnY8I7mMZcc
[00:24] Bom, boa tarde a todos.
[00:27] Bom, boa tarde a todos.
[00:27] É uma alegria receber hoje o professor Anderson aqui como palestrante.
[00:31] Ele é professor titular aqui do Instituto de Computação e coordenador do laboratório Record, né,
[00:37] que temos hoje aqui uma presença muito especial do pessoal do laboratório.
[00:42] Ele tem o reconhecimento pela I3E, tanto como fellow como distinguish lecturer.
[00:48] E a pesquisa dele envolve inteligência artificial, visão computacional e segurança da informação com aplicações em ciência e forência digital.
[00:57] Então, obrigada.
[00:58] Obrigada.
[01:02] Bom, pessoal, boa tarde.
[01:04] Bom, pessoal, boa tarde.
[01:04] Obrigado pela presença.
[01:07] Obrigado a vocês que estão acompanhando online também.
[01:09] É um prazer eh falar com vocês.
[01:12] Essa palestra é a primeira vez que eu vou apresentar.
[01:13] Ela foi preparada eh baseado em alguns estudos que eu tenho feito.
[01:18] Eh, eu preciso dizer que ela pode ser provocadora para algumas pessoas aqui, porque normalmente quando a gente
[01:26] aqui, porque normalmente quando a gente pensa em ciência artificial, a gente pensa em ciência artificial, a gente pensa muito a parte técnica, né?
[01:31] né? Principalmente as pessoas que estão comigo no laboratório, fala muito da parte técnica, como que a gente implementa e a às vezes a gente esquece que existe um contexto muito maior, né, no mundo de hoje.
[01:42] E em particular, gostaria que ao final vocês entendessem qual é esse contexto em relação à inteligência artificial.
[01:48] Esse contexto, então, ele envolve escolhas que nós fazemos todos os dias, eh, e com impactos, não só nas gerações, eh, que nós temos hoje, mas nas gerações futuras, tá?
[02:06] Então, eu chamei eh de inteligência artificial, florescimento humano, uma forma de reclamar tecnologia paraa humanidade.
[02:11] H, e que que nós vamos falar aqui hoje, né?
[02:15] Primeira coisa que eu gostaria de deixar claro para vocês, talvez quem tá eh atuando com IA tenha isso em mente, mas talvez isso não seja claro para todo
[02:27] talvez isso não seja claro para todo mundo.
[02:29] mundo.
[02:29] E não é uma ferramenta,
[02:31] E não é uma ferramenta, tá?
[02:33] Essa é a primeira coisa.
[02:33] Ela não é [roncando] um martelo, ela é uma
[02:36] [roncando] um martelo, ela é uma tecnologia de propósito geral.
[02:39] Isso é a primeira coisa que você tem que guardar.
[02:41] Isso significa que ela é uma GPT, não o
[02:44] GPT do chat, tá?
[02:44] é uma general purpose technology
[02:47] e a humanidade só fez 21 tecnologias
[02:48] gerais até hoje.
[02:52] A IA é a 22ª
[02:55] e justamente por ser uma tecnologia de
[02:58] propósito geral, ela traz implicações
[02:59] muito grandes na nossa vida.
[03:01] Então, alguns exemplos para vocês
[03:05] colocarem no contexto aqui do que que
[03:07] nós chamamos de tecnologia de propósito
[03:09] geral.
[03:11] Eletricidade.
[03:13] Eletricidade.
[03:15] Eletricidade é a primeira, ela
[03:17] transformou
[03:19] a forma como a gente produz de maneira
[03:22] geral e como a gente vive o nosso
[03:24] cotidiano.
[03:24] A primeira tecnologia que eu trouxe aqui como exemplo, não é a
[03:28] trouxe aqui como exemplo, não é a primeira que nós criamos, né?
[03:30] Mas a primeira, como exemplo de tecnologia de proposta geral é a eletricidade.
[03:34] A segunda é imprensa.
[03:37] Então a imprensa democratizou o acesso ao conhecimento.
[03:41] Então ela tem um propósito muito maior.
[03:44] Ela tem essa classificação como tecnologia de de propósito geral, justamente porque ela tem um impacto muito grande em diferentes áreas, tá?
[03:54] A internet eh mudou a forma como nós nos conectamos, como nós acessamos a informação, como nós compartilhamos a informação, como nós conversamos e acessamos outras pessoas.
[04:06] E a inteligência artificial nesse contexto é trazida como uma tecnologia também de propósito geral, mas é a primeira vez na história que nós temos uma tecnologia que afeta, interage diretamente com a cognição, tá?
[04:22] Nós nunca tivemos uma tecnologia em que era possível conversar com o software.
[04:30] software.
[04:30] Hoje é possível conversar com software.
[04:33] Hoje é possível conversar com software.
[04:35] É tão natural hoje, principalmente para as novas gerações, que eu tenho visto algumas crianças, elas vem uma caixinha de texto, elas já acham que podem interagir, já tá ficando natural 7, 8 anos.
[04:48] anos.
[04:48] tem um sinalzinho do microfone, a criança já espera ser capaz de de ditar e esperar uma resposta.
[04:54] Então, a Iá tá vindo como a nossa 22ª tecnologia de propósito geral.
[05:01] E o que que isso significa, né?
[05:04] Existem tecnologias que alteram setores muito específicos e tem outras que trazem toda uma reestruturação da sociedade, da economia.
[05:13] E trazer aqui o entendimento que a IA se encaixa justamente nessa segunda parte é importantíssimo pra gente formular políticas públicas e estratégias empresariais à altura do momento que nós vivemos.
[05:29] Então, como eu trouxe para vocês, nós
[05:30] Então, como eu trouxe para vocês, nós tivemos vários exemplos ao longo da nossa história, como a máquina a vapor.
[05:34] É uma tecnologia específica, não, super de propósito geral, ela aumentou a nossa capacidade de força, ela permitiu a industrialização.
[05:45] A eletricidade, ela reorganizou totalmente as fábricas.
[05:51] Não sei se vocês sabem, mas antes da eletricidade, quando você fazia uma fábrica, ela tinha, primeira coisa, tinha que estar do lado de um rio.
[05:57] Se ela não tivesse do lado de um rio, não tinha como gerar energia.
[06:00] Isso fazia com que todas as máquinas ficassem na borda da fábrica para ter conexão com o rio.
[06:08] Com a eletricidade, você permite a miniaturização das máquinas e você permite também que as fábricas estivessem em qualquer configuração e estivesse em qualquer lugar.
[06:17] O motor de combustão permite a mobilidade e a logística e muda a forma de distribuição de cadeias de global.
[06:26] Semicondutoras não preciso nem falar, né?
[06:27] Maior parte das pessoas aqui é de computação, então permite a computação
[06:32] computação, então permite a computação pessoal e a revolução digital.
[06:35] pessoal e a revolução digital.
[06:37] E a internet traz a comunicação instantânea e a economia de plataformas.
[06:43] E o que que define uma GPT?
[06:46] Por que que como é que você pode chamar uma tecnologia como de propósito geral?
[06:49] tecnologia como de propósito geral?
[06:50] Primeira coisa, ela tem que ter uma aplicação transversal.
[06:53] aplicação transversal.
[06:55] Ela tem que penetrar em praticamente todos os setores da economia, da saúde à agricultura, finanças e defesa.
[07:02] agricultura, finanças e defesa.
[07:05] Ela tem que ter melhoria contínua, ou seja, ela não pode ser estática.
[07:07] Fiz um martelo, ele tá pronto.
[07:09] A tecnologia de propósito geral, ela melhora continuamente, ela aprimora-se ao longo do tempo à medida que acumula dados, computação e pesquisa.
[07:16] computação e pesquisa.
[07:17] >> [roncando] >>
[07:20] E terceiro, ela leva a inovações complementares em outras áreas.
[07:23] Por exemplo, ela estimula e acelera outras inovações ao redor, criando um ecossistema inteiro de novas tecnologias.
[07:28] ecossistema inteiro de novas tecnologias.
[07:31] É por isso que a IA é colocada aqui como uma tecnologia de
[07:34] colocada aqui como uma tecnologia de proposta geral.
[07:35] E essa discussão vem nos últimos 2 anos, tá?
[07:38] Porque até o grande avanço que nós tivemos de e a generativa a partir do ano de 2018, 2019, ela ainda não era muito bem classificada como tecnologia de propósito geral, mas agora ela já tá indo nessa direção.
[07:54] Só para vocês terem mais um pouco de contexto, vamos falar um pouquinho da eletricidade, para vocês verem o impacto disso.
[07:59] A eletricidade ela reorganizou fábricas, cidades e infraestrutura da vida moderna.
[08:05] Então, ela trouxe uma transformação civilizatória.
[08:09] Só para vocês terem uma ideia, eu trouxe aqui, eu fiz essa foto não faz muito tempo, da feira da eletricidade, eh, no Museu de Arte Moderna de Paris.
[08:19] É um painel de mais de 15 m que busca mostrar como que a eletricidade mudou a vida das pessoas.
[08:26] Então, só para vocês terem uma ideia, olha só, antes da eletricidade a gente tinha uma vida mais ou menos campestre, era baseado na agricultura, as pessoas
[08:34] Era baseado na agricultura, as pessoas usavam a tudo, era baseado na própria força das pessoas ou dos animais.
[08:40] Com isso, assim que começa a aparecer a eletricidade, nós somos capazes de desenvolver as fábricas, somos capazes de distribuir energia e, a partir disso utilizar eletricidade para iluminação e para produção de outras indústrias, até mesmo a criação do avião.
[09:02] Esse trabalho foi encomendado para esse artista R Buff justamente para mostrar como a eletricidade mudou a vida das pessoas.
[09:10] Isso leva a novas invenções.
[09:12] Por exemplo, aqui nós temos vários inventores e e isso permitiu, a eletricidade permitiu que nós conseguíssemos avançar diferentes campos, inclusive nascendo uma ciência, né, um um uma engenharia associada à eletricidade, que é engenharia elétrica, responsável por várias inovações na nossa história, vindo justamente porque se inventou a eletricidade.
[09:35] se inventou a eletricidade.
[09:39] E aí nós chegamos à cidades, temos até sinalização urbana, a forma como nós interagimos, adquirimos o domínio da noite, podemos eh aumentar os mudar os os turnos de trabalho, tudo isso mudou a sociedade.
[09:55] E trazendo nesse contexto, eu gostaria de colocar agora a diferença fundamental com esse tipo de tecnologia quando nós estamos falando dessa 22ª tecnologia de propósito geral, que é a IA.
[10:06] pela primeira vez, então nós temos a construção de máquinas que automatizam a cognição, enquanto todas as outras automatizavam basicamente a força.
[10:16] Então agora não é mais a força física ou repetição mecânica.
[10:19] Nós temos funções intelectuais.
[10:21] Aqui é que tá a grande diferença.
[10:23] Então agora a gente tem condição de fazer percepção.
[10:27] Então a percepção é como nós capturamos a informação do mundo.
[10:28] Isso pode ser feito pela visão, pela audição, pela leitura de sinais do ambiente.
[10:35] Nós fazemos previsão, então a capacidade
[10:38] Nós fazemos previsão, então a capacidade de antecipar eventos.
[10:40] de antecipar eventos.
[10:43] Classificação, nós conseguimos fazer a categorização de eventos, padrões complexos em grande escala.
[10:47] complexos em grande escala.
[10:49] Linguagem, compreensão e geração de textos, fala e código.
[10:54] código e decisão assistida,
[10:57] e decisão assistida, [roncando] em que nós temos o suporte a escolhas complexas, cruzamento de múltiplas coleções de dados em grande quantidade quantidade para nos ajudar a tomar decisões.
[11:07] Então, olha só, pela primeira vez nós temos algo que mexe com aquilo que inerentemente a gente pensava que era apenas humano.
[11:15] a ou de alguns poucos animais em algumas categorias, a capacidade de antever eventos, a capacidade de linguagem, a capacidade de desenvolver desenvolvimento de código, a decisão assistida para situações complexas e a forma de percepção do ambiente em múltiplos múltiplos lados.
[11:40] Isso vem num momento em que isso não tá.
[11:41] Isso vem num momento em que isso não tá acontecendo só relacionado ao mundo digital.
[11:44] Nós estamos vivendo, eu já falei aqui numa palestra anterior sobre a revolução da convergência.
[11:51] junto com a e a nós temos um grande desenvolvimento nessas cinco frentes aqui no mundo digital com os bits.
[12:02] Nós temos a IA, temos uma total mudança em como a gente desenvolve eh software e onde a gente executa praticamente toda a computação moderna na nuvem.
[12:16] Nós temos uma revolução do mundo de pesquisa de materiais e de manufatura inteligente.
[12:24] Neurociência tá tendo avanços surpreendentes nos últimos anos, principalmente na linha de interface cérebro máro.
[12:32] Essa é uma das áreas que depois da IA praticamente é a que vai que está dominando a nossa década e provavelmente a próxima, a biotecnologia e a engenharia genética.
[12:39] Nós temos aqui
[12:41] engenharia genética.
[12:41] Nós temos aqui pesquisa em longevidade, nós temos pesquisa em longevidade, nós temos pesquisa em identificação de doenças,
[12:45] pesquisa em identificação de doenças, identificação de doenças raras, novos
[12:48] identificação de doenças raras, novos medicamentos, predição de dobradura de
[12:51] medicamentos, predição de dobradura de de dobra de proteína, tudo isso aqui em
[12:54] de dobra de proteína, tudo isso aqui em G, genes
[12:56] G, genes e na interação entre todos esses temas
[12:58] e na interação entre todos esses temas de sociedade, ou seja, a gente tem a
[13:00] de sociedade, ou seja, a gente tem a mudança das instituições.
[13:02] Então, isso é o que nós chamamos de convergência
[13:04] o que nós chamamos de convergência banks.
[13:07] E aí, nesse interim, principalmente nos
[13:10] E aí, nesse interim, principalmente nos últimos anos, tem essa pergunta.
[13:14] E aí nós estamos em direção, nós estamos indo
[13:16] nós estamos em direção à inteligência artificial
[13:18] em direção à inteligência artificial geral, ai.
[13:21] geral, ai.
[13:21] Então, antes da gente continuar, um quiz rápido.
[13:24] Quem acha que a gente tá indo na
[13:26] rápido. Quem acha que a gente tá indo na direção da ID, levanta a mão.
[13:32] OK.
[13:33] OK.
[13:33] Quem acha que a gente vai chegar em
[13:35] Quem acha que a gente vai chegar em algum momento na Edi?
[13:39] algum momento na Edi?
[13:39] Já aumentou, né?
[13:40] E quem acha que a gente nunca vai
[13:42] né?
[13:42] E quem acha que a gente nunca vai chegar?
[13:44] chegar?
[13:44] Ah, muito bom.
[13:48] Bom, só uma dica que eu aprendi muito cedo com os meus pais é a palavra sempre e nunca são complicadas, tá?
[13:54] Então, sempre que alguém eh perguntar para vocês, pensem um pouco sobre essas duas palavrinhas.
[13:59] Eh, o que que é?
[14:02] Primeiro é inteligência artificial capaz, tá?
[14:07] Vou mostrar para vocês a definição daqui a pouco.
[14:11] E ai, inteligência artificial geral.
[14:15] Só que não, isso não é eh randômico, não é aleatório esses termos.
[14:21] Eu vou definir para vocês.
[14:23] E se você tivesse conversado comigo 10 anos atrás ou feito disciplina comigo 10 anos atrás, a minha opinião seria diferente sobre ACI e ADI.
[14:30] 5 anos atrás ela seria diferente.
[14:35] Hoje eu tenho uma visão muito mudada em
[14:42] Eu tenho uma visão muito mudada em relação ao que que tá acontecendo.
[14:46] Relação ao que que tá acontecendo.
[14:47] Isso principalmente porque a gente humano, a gente é acostumado a ter um horizonte de tempo dentro de 2 a 10 anos no máximo quando a gente faz qualquer plano.
[14:51] Horizonte de tempo dentro de 2 a 10 anos no máximo quando a gente faz qualquer plano.
[14:53] No máximo quando a gente faz qualquer plano.
[14:56] Mas todos os avanços que nós temos na IA hoje em termos da IA moderna, eles aconteceram nos últimos 60 anos.
[14:58] Mas todos os avanços que nós temos na IA hoje em termos da IA moderna, eles aconteceram nos últimos 60 anos.
[15:00] Hoje em termos da IA moderna, eles aconteceram nos últimos 60 anos.
[15:05] Aconteceram nos últimos 60 anos.
[15:09] Foram só 60 anos, imagine 500 anos daqui no futuro.
[15:13] Imagine 500 anos daqui no futuro.
[15:14] Então, a pergunta fica muito mais complexa.
[15:15] Eu quero mostrar para vocês porquê.
[15:18] Então, a primeira coisa que a gente tem que ter em mente é que precisamos definir o alvo com um pouco mais de precisão.
[15:19] Que ter em mente é que precisamos definir o alvo com um pouco mais de precisão.
[15:21] Precisão. Adiência em benchmarks específicos isolados, tá?
[15:23] Adiência em benchmarks específicos isolados, tá?
[15:25] Então, ah, eu quebrei a prova do ITA e eu passei com nota total na prova do ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
[15:29] Então, ah, eu quebrei a prova do ITA e eu passei com nota total na prova do ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
[15:32] Eu quebrei a prova do ITA e eu passei com nota total na prova do ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
[15:34] Eu passei com nota total na prova do ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
[15:37] ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
[15:39] Ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
[15:40] Matemática, como aconteceu o ano passado com o Cloud.
[15:42] com o Cloud, não é dataset específico, não é dataset específico, não é benchmark específica.
[15:47] Nós precisamos ter três coisas, principalmente competência tem que ser geral e adaptativa.
[15:55] Ou seja, se você tem uma técnica, um algoritmo, um software que é dito ADI, ele tem que ter competência geral e adaptativa, ou seja, ele tem que funcionar em múltiplos domínios sem treinamento ou com adaptação mínima.
[16:12] Isso é a primeira coisa.
[16:14] Segundo, transferência robusta, desempenho mantido em contextos genuinamente novos.
[16:21] Não é ser capaz de jogar xadrez e aquilo transferir para o Go e do Go ser transferido pro xadrez japonês, por exemplo, que é XJi, né?
[16:30] Não é isso?
[16:34] Isso é ótimo.
[16:36] É um avanço de ciência e engenharia importante, mas para ser ADI precisa resolver problemas em domínios diferentes.
[16:39] E terceiro,
[16:44] E terceiro, eficiência comparável, ou seja, nesses diferentes domínios, sem dependência excessiva de escala, ou seja, eu preciso de todos os dados da internet e sem scaffolding, ou seja, sem usar outras muitas ferramentas eh colaterais.
[17:01] Então, a tese central é que a fronteira atual mostra sinal de maior generalidade.
[17:05] Isso é fato.
[17:07] Se você se recusa a ver isso, eu sugiro que você estude um pouco mais.
[17:11] A está muito avançada hoje e já mostra sinais de generalidade, mas ainda com forte dependência de escala, de ferramentas externas e ambientes controlados ou semicontrolados, tá?
[17:31] Mas nós tivemos em 2023 a 2025 cinco movimentos importantíssimos que eram considerados barreiras pra gente dizer que está indo na direção da ID.
[17:43] Primeiro, raciocínio deliberado.
[17:47] Primeiro, raciocínio deliberado.
[17:49] Então, infers time compute, computação em tempo de inferência.
[17:52] modelos hoje que a gente vai usar a palavra um pouco forçada, pensam um pouco mais aqui,
[17:56] melhora em matemática, código e problemas multi etapas.
[18:00] Isso já acontece hoje.
[18:02] Nós temos hoje a capacidade de interpretar um prompt e executar uma tarefa que o usuário espera que seja executada como desenvolvimento de código.
[18:08] E não é código alô mundo, não é código sofisticado, tá?
[18:14] Então é inferência em tempo de computação, em tempo de execução.
[18:18] Isso é importante, é uma barreira que nós temos vencido.
[18:21] Segundo, multimodalidade nativa.
[18:24] Se você tá indo na direção de computação geral, ou seja, de resolver problemas de maneira geral, você precisa ser capaz de atuar em múltiplas modalidades.
[18:34] E a multimodalidade hoje é nativa, ou seja, nós temos a integração orgânica hoje nesses modelos de imagem, de texto, de áudio, vídeo e código.
[18:46] Então, considere modelos como GPT5, o
[18:49] Então, considere modelos como GPT5, o Gemini 2.5 ou Cloud.
[18:53] Gemini 2.5 ou Cloud.
[18:54] Então, a segunda grande barreira que nós tínhamos entre o período de 23 a 25 foi vencida.
[19:00] Terceira barreira, agentes.
[19:04] Terceira barreira, agentes.
[19:06] Durante muito tempo na IA, a gente foi capaz de resolver problemas como classificação de padrões, diferenciar uma doença de outra, eh fazer classificação industrial, que é onde tem impacto, verificar se tem defeito ou não tem defeito.
[19:18] Muito bem. Mas isso não era agir no mundo, tá?
[19:21] Inteligência implica agir no mundo.
[19:24] Não é só resolver algo num modelo eh digamos na cabeça, no no modelo de software, é você uma vez tendo uma resposta ir no mundo atuar e pegar a resposta.
[19:36] Então agora a gente tem um grande avanço nessa no sentido de agir.
[19:38] E os agentes com ferramentas hoje navegam a web, executam o código, manipulam o arquivo, eles eh fazem desde
[19:50] manipulam o arquivo, eles eh fazem desde o responder alguma coisa até o agir para o responder alguma coisa até o agir para fazer para para ter a solução de um fazer para para ter a solução de um problema.
[19:58] Mas ainda no mundo digital. Ele age no mundo, sim, mas ainda a maior parte das ações no mundo digital.
[20:02] Planejar uma viagem, eh reservar hotel, ajudar no desenvolvimento de código.
[20:13] Beleza? O próximo passo é a corporificação, ou seja, você ter o agente capaz de agir no mundo real.
[20:19] Pode ser via robô, pode ser via um carro autônomo, mas agir no mundo real.
[20:24] Isso ainda nós estamos atrasados.
[20:29] contexto. Quem usou as primeiras versões desses modelos sabiam que o contexto era muito pequeno.
[20:32] Às vezes você começava a conversar e e o modelo se perdia, já não sabia o assunto que você estava falando.
[20:37] Gente, para 10 minutos e interage com um desses modelos hoje.
[20:42] Interage com o chat e ou com o Cloud ou com Gemini última versão.
[20:47] Verifica o quanto tempo ele consegue manter uma conversação sem perder o contexto.
[20:52] às vezes dias sem perder o contexto.
[20:57] às vezes dias sem perder o contexto. Então ele tem um contexto muito mais
[20:58] Então ele tem um contexto muito mais longo. O contexto de hoje, em apenas
[21:02] longo. O contexto de hoje, em apenas 3 anos, ele já tá em 1 milhão de tokens.
[21:06] 3 anos, ele já tá em 1 milhão de tokens. Vamos aproximar aqui a definição de
[21:07] Vamos aproximar aqui a definição de token para palavra.
[21:10] token para palavra. 1 milhão de palavras.
[21:13] 1 milhão de palavras. E pela velocidade que nós estamos indo,
[21:15] E pela velocidade que nós estamos indo, não se assustem. Ao final de 2026, isso
[21:17] não se assustem. Ao final de 2026, isso aqui talvez esteja no dobro, pelo menos.
[21:22] aqui talvez esteja no dobro, pelo menos. E há estudos que mostram que dentro de
[21:24] E há estudos que mostram que dentro de 10 anos nós vamos ter uma janela de
[21:26] 10 anos nós vamos ter uma janela de contexto tão longa
[21:28] contexto tão longa que nem vai ser mais sentido, vai ter
[21:30] que nem vai ser mais sentido, vai ter sentido a discussão de janela de
[21:32] sentido a discussão de janela de contexto.
[21:36] E último ponto, nós estamos dando os
[21:39] E último ponto, nós estamos dando os primeiros passos aí dos cinco que estão
[21:41] primeiros passos aí dos cinco que estão aqui, o mais atrasado é esse, nos
[21:43] aqui, o mais atrasado é esse, nos chamados modelos de mundo. modelos de
[21:45] chamados modelos de mundo. modelos de mundo são aqueles modelos para entender,
[21:48] mundo são aqueles modelos para entender, por exemplo, sensos comum, entender a
[21:50] por exemplo, sensos comum, entender a física do mundo físico, tá? Primeiro,
[21:52] física do mundo físico, tá? Primeiro, sinais convincentes de que nós podemos
[21:54] sinais convincentes de que nós podemos fazer planejamento em um ambiente
[21:56] fazer planejamento em um ambiente interativo, dinâmico, competitivo ou
[21:59] interativo, dinâmico, competitivo ou cooperativo e transferir o que você
[22:02] cooperativo e transferir o que você aprende para o mundo físico. Então, nós
[22:04] aprende para o mundo físico. Então, nós tivemos cinco grandes avanços. Tá sendo
[22:06] tivemos cinco grandes avanços. Tá sendo fantástico. Eu sempre gostei de
[22:10] fantástico. Eu sempre gostei de até que eu comecei trabalhar com IA em
[22:11] até que eu comecei trabalhar com IA em 2001
[22:13] 2001 e sou professor da Unicamp há 17 anos e
[22:16] e sou professor da Unicamp há 17 anos e eu nunca vivi um momento em que tanta
[22:20] eu nunca vivi um momento em que tanta coisa legal tá acontecendo ao mesmo
[22:21] coisa legal tá acontecendo ao mesmo tempo
[22:23] tempo e também tanta coisa preocupante
[22:24] e também tanta coisa preocupante acontecendo ao mesmo tempo,
[22:26] acontecendo ao mesmo tempo, tá? E eu vou trazer algumas dessas eh
[22:29] tá? E eu vou trazer algumas dessas eh preocupações para vocês também.
[22:31] preocupações para vocês também. Então aqui trouxe um resumo. Ah, by the
[22:33] Então aqui trouxe um resumo. Ah, by the way, eu posso compartilhar a
[22:34] way, eu posso compartilhar a apresentação com vocês se vocês
[22:35] apresentação com vocês se vocês quiserem. depois vai tá salvo também no
[22:37] quiserem. depois vai tá salvo também no no YouTube. Então eu trouxe aqui até
[22:40] no YouTube. Então eu trouxe aqui até 2023, ou seja, o estado anterior, nós
[22:43] 2023, ou seja, o estado anterior, nós tínhamos modelos que não tinham
[22:45] tínhamos modelos que não tinham multimodalidade, o raciocínio no
[22:47] multimodalidade, o raciocínio no pós-treino era bem limitado, só tinha a
[22:51] pós-treino era bem limitado, só tinha a conversação. Hoje já tem o modo entic,
[22:53] conversação. Hoje já tem o modo entic, né, o modo de agentes. O contexto hoje
[22:56] né, o modo de agentes. O contexto hoje tá muito maior e nós temos o reasoning.
[23:03] Então, por que que a direção parece
[23:05] Então, por que que a direção parece plausível?
[23:08] Porque nós temos uma unificação
[23:10] Porque nós temos uma unificação crescente,
[23:11] crescente, percepção, linguagem, raciocínio, ação
[23:13] percepção, linguagem, raciocínio, ação convergindo para sistemas únicos, ou
[23:15] convergindo para sistemas únicos, ou seja, um sistema que faz tudo isso.
[23:18] seja, um sistema que faz tudo isso. Segundo, ganhos consistentes,
[23:21] Segundo, ganhos consistentes, progressos em benchmarks difíceis como o
[23:23] progressos em benchmarks difíceis como o MEF, o Rio Meneval, o Arcadi e o SUBT,
[23:27] MEF, o Rio Meneval, o Arcadi e o SUBT, agentes multidomínio, planejamento,
[23:30] agentes multidomínio, planejamento, ferramentas, memória, contexto encadeado
[23:33] ferramentas, memória, contexto encadeado com poucas instruções
[23:36] com poucas instruções e tá indo além da linguagem,
[23:38] e tá indo além da linguagem, tá? Então, modelos de mundo e sistemas
[23:41] tá? Então, modelos de mundo e sistemas corporificados que sugerem expansão para
[23:43] corporificados que sugerem expansão para o espaço físico.
[23:46] o espaço físico. Então, na velocidade que nós estamos
[23:48] Então, na velocidade que nós estamos indo, é bem provável que nós atinjamos
[23:50] indo, é bem provável que nós atinjamos algo parecido com essa definição aqui de
[23:54] algo parecido com essa definição aqui de ADI nos próximos anos. Que que isso
[23:56] ADI nos próximos anos. Que que isso implica para você?
[23:59] implica para você? Ah, nós vamos ser dominados. Não,
[24:02] Ah, nós vamos ser dominados. Não, isso implica que nós vamos ter uma um
[24:04] isso implica que nós vamos ter uma um baita oportunidade de ter uma tecnologia
[24:06] baita oportunidade de ter uma tecnologia para trabalhar conosco, para aumentar as
[24:08] para trabalhar conosco, para aumentar as nossas capacidades.
[24:11] nossas capacidades. E também mostra uma grande demanda para
[24:13] E também mostra uma grande demanda para que nós trabalhemos enquanto sociedade
[24:16] que nós trabalhemos enquanto sociedade para demandar as regulamentações
[24:18] para demandar as regulamentações necessárias para esse tipo de
[24:20] necessárias para esse tipo de tecnologia.
[24:22] tecnologia. Não tem freelunch, não tem almoço
[24:24] Não tem freelunch, não tem almoço grátis. A tecnologia é muito poderosa e
[24:27] grátis. A tecnologia é muito poderosa e como já dizia o filósofo, né, com
[24:29] como já dizia o filósofo, né, com grandes poderes vem grandes
[24:31] grandes poderes vem grandes responsabilidades.
[24:33] responsabilidades. Não é o Homaranha, tá? [risadas]
[24:37] Não é o Ancle Len.
[24:39] Não é o Ancle Len. E o que que falta?
[24:42] E o que que falta? Confiabilidade, primeira coisa, ela
[24:44] Confiabilidade, primeira coisa, ela ainda é irregular.
[24:47] ainda é irregular. Então, modelos hoje erram de forma
[24:49] Então, modelos hoje erram de forma inconsistente. Às vezes eles acertam
[24:51] inconsistente. Às vezes eles acertam para perguntas dificíimas
[24:54] para perguntas dificíimas e erro para perguntas idiotas.
[24:59] Por exemplo, quantos Bs existem numa
[25:01] Por exemplo, quantos Bs existem numa palavra? Por exemplo,
[25:04] palavra? Por exemplo, dependência de scaffolding. Dependência
[25:06] dependência de scaffolding. Dependência de scaffolding significa que você
[25:07] de scaffolding significa que você precisa de muitas outras coisas, muitas
[25:10] precisa de muitas outras coisas, muitas mudanças, muitos eh eh programinhas
[25:12] mudanças, muitos eh eh programinhas adicionais, muitas escolhas adicionais
[25:14] adicionais, muitas escolhas adicionais para fazer isso funcionar ainda, tá?
[25:17] para fazer isso funcionar ainda, tá? Então a gente precisa trabalhar nisso. E
[25:19] Então a gente precisa trabalhar nisso. E a fragilidade fora da distribuição. Tem
[25:21] a fragilidade fora da distribuição. Tem gente aqui que faz pesquisa em out of
[25:23] gente aqui que faz pesquisa em out of distribution, né? Eh, justamente quando
[25:25] distribution, né? Eh, justamente quando você tem problemas reais, a ideia é que
[25:28] você tem problemas reais, a ideia é que você conseguisse lidar com esse problema
[25:29] você conseguisse lidar com esse problema real sem mudar tanto o seu modelo.
[25:32] real sem mudar tanto o seu modelo. Então, a gente ainda tá limitado nesse
[25:33] Então, a gente ainda tá limitado nesse sentido.
[25:38] E a outra coisa é que nós temos uma
[25:39] E a outra coisa é que nós temos uma crise metodológica na medição de
[25:41] crise metodológica na medição de inteligência. A própria definição de
[25:43] inteligência. A própria definição de inteligência é difícil.
[25:46] inteligência é difícil. Então, do jeito que nós estamos hoje, se
[25:47] Então, do jeito que nós estamos hoje, se nós chegássemos hoje na EDI, a gente não
[25:50] nós chegássemos hoje na EDI, a gente não saberia,
[25:52] saberia, porque ainda não temos uma forma
[25:54] porque ainda não temos uma forma unificada de medição. Então, é por isso
[25:57] unificada de medição. Então, é por isso que eu digo aqui que nós temos alguns
[25:59] que eu digo aqui que nós temos alguns indícios de evolução nesse
[26:01] indícios de evolução nesse desenvolvimento nos últimos anos.
[26:04] desenvolvimento nos últimos anos. Então, por exemplo,
[26:06] Então, por exemplo, o AI Index 2026 acabou de sair e eu
[26:10] o AI Index 2026 acabou de sair e eu trouxe para vocês aqui um alerta. Os
[26:13] trouxe para vocês aqui um alerta. Os avaliadores hoje não conseguem
[26:15] avaliadores hoje não conseguem acompanhar o ritmo do progresso. Fato,
[26:18] acompanhar o ritmo do progresso. Fato, tá? Então, você, não sei se vocês estão
[26:21] tá? Então, você, não sei se vocês estão sabendo, mas na semana passada eh houve
[26:23] sabendo, mas na semana passada eh houve o lançamento restrito do Cloud Meetos.
[26:27] o lançamento restrito do Cloud Meetos. Vocês ouviram falar do Cloud Meetos? Uma
[26:31] Vocês ouviram falar do Cloud Meetos? Uma coisa para vocês não se assustarem ou
[26:33] coisa para vocês não se assustarem ou para se assustarem, o Cloud Meetles, se
[26:35] para se assustarem, o Cloud Meetles, se ele tivesse só o nível do chat GPT de
[26:38] ele tivesse só o nível do chat GPT de conversação, mas o que ele tá
[26:40] conversação, mas o que ele tá conseguindo fazer, que é encontrar bugs
[26:41] conseguindo fazer, que é encontrar bugs em desenvolvimento de código, já vai ser
[26:43] em desenvolvimento de código, já vai ser um grande avanço,
[26:46] um grande avanço, porque ele representa um grande perigo
[26:48] porque ele representa um grande perigo para softwares já instalados. Ele
[26:50] para softwares já instalados. Ele encontrou bugs de 30 anos em em software
[26:53] encontrou bugs de 30 anos em em software de roteadores.
[26:55] de roteadores. Ele encontrou bug de anos na FFMPEG, uma
[26:58] Ele encontrou bug de anos na FFMPEG, uma biblioteca que todo mundo usa.
[27:01] biblioteca que todo mundo usa. E mais do que isso, ele conseguiu sair
[27:02] E mais do que isso, ele conseguiu sair do contêiner.
[27:04] do contêiner. Todo mundo que faz execução de código
[27:05] Todo mundo que faz execução de código dentro de data center aqui, pega, tem um
[27:07] dentro de data center aqui, pega, tem um contêiner, coloca um software lá dentro
[27:08] contêiner, coloca um software lá dentro e ele executa. O Cloud Mitos saiu do
[27:12] e ele executa. O Cloud Mitos saiu do contêiner. O que que quer dizer isso? O
[27:14] contêiner. O que que quer dizer isso? O programador dele disse: "Você tá dentro
[27:16] programador dele disse: "Você tá dentro de um contêiner, se você encontrar uma
[27:18] de um contêiner, se você encontrar uma falha no código do contêiner, você sai e
[27:20] falha no código do contêiner, você sai e me manda o e-mail". E ele saiu.
[27:24] me manda o e-mail". E ele saiu. Ele saiu do conêiner. Que que significa
[27:26] Ele saiu do conêiner. Que que significa sair do contêiner? Nada demais, nada
[27:28] sair do contêiner? Nada demais, nada espiritual ou ADI, nada disso. Significa
[27:31] espiritual ou ADI, nada disso. Significa que ele encontrou um bug e que me permit
[27:34] que ele encontrou um bug e que me permit que permitia a ele acessar o sistema
[27:35] que permitia a ele acessar o sistema operacional e enviar um e-mail. E ele
[27:38] operacional e enviar um e-mail. E ele fez isso.
[27:41] fez isso. Então, o que nós estamos mostrando aqui
[27:43] Então, o que nós estamos mostrando aqui que essas estão ficando tão boas que
[27:45] que essas estão ficando tão boas que elas acham bugs que a gente achava que
[27:47] elas acham bugs que a gente achava que não tinha e elas geram bugs que nós não
[27:51] não tinha e elas geram bugs que nós não vamos ser capazes de encontrar,
[27:54] vamos ser capazes de encontrar, tá?
[27:57] Então, a próxima fronteira
[28:00] Então, a próxima fronteira eh é a gente sair do chatbot
[28:03] eh é a gente sair do chatbot e passar passar pros sistemas que
[28:05] e passar passar pros sistemas que percebem, planejam e agem.
[28:08] percebem, planejam e agem. Tá? E a tem que ser pensada fora da
[28:11] Tá? E a tem que ser pensada fora da caixa aqui. E a não é só resolver
[28:14] caixa aqui. E a não é só resolver padrões. E a não é só conversar com
[28:17] padrões. E a não é só conversar com chatt. Não. E a significa fazer isso
[28:21] chatt. Não. E a significa fazer isso [limpando a garganta] mais a percepção
[28:22] [limpando a garganta] mais a percepção de mundo, mais o planejamento e mais
[28:25] de mundo, mais o planejamento e mais ação no mundo. A gente tá muito bom na
[28:28] ação no mundo. A gente tá muito bom na primeira parte,
[28:30] primeira parte, mas a gente ainda não percebe o mundo
[28:32] mas a gente ainda não percebe o mundo tão bem. A gente não age muito bem no
[28:33] tão bem. A gente não age muito bem no mundo e a gente não tem muito, muito boa
[28:37] mundo e a gente não tem muito, muito boa qualidade no planejamento.
[28:39] qualidade no planejamento. Isso vai obviamente ser melhorado ao
[28:41] Isso vai obviamente ser melhorado ao longo dos anos.
[28:43] longo dos anos. Precisamos partir para ir a
[28:45] Precisamos partir para ir a corporificada, ou seja, sair de software
[28:47] corporificada, ou seja, sair de software e passar a atuar no mundo físico. Isso
[28:49] e passar a atuar no mundo físico. Isso vai ter um grande impacto na vida das
[28:50] vai ter um grande impacto na vida das pessoas e na economia.
[28:54] pessoas e na economia. E na linha, por exemplo, de modelos de
[28:55] E na linha, por exemplo, de modelos de mundo, Gini 2, DIN 3, eh, o Sima 2 e
[28:59] mundo, Gini 2, DIN 3, eh, o Sima 2 e outros modelos. Esse vai ser o grande
[29:01] outros modelos. Esse vai ser o grande salto. Mas independente desse salto
[29:04] salto. Mas independente desse salto necessário, é importante vocês terem em
[29:05] necessário, é importante vocês terem em mente que tá havendo um grande avanço,
[29:09] mente que tá havendo um grande avanço, já capaz de gerar muita mudança na
[29:11] já capaz de gerar muita mudança na economia e na vida das pessoas,
[29:15] economia e na vida das pessoas, positivas e negativas.
[29:17] positivas e negativas. Então, uma síntese equilibrada que eu
[29:19] Então, uma síntese equilibrada que eu trouxe para vocês aqui é: estamos na
[29:21] trouxe para vocês aqui é: estamos na direção, mas definitivamente não estamos
[29:24] direção, mas definitivamente não estamos no destino, tá? Caminhamos na direção,
[29:27] no destino, tá? Caminhamos na direção, dado esses argumentos que eu passei para
[29:29] dado esses argumentos que eu passei para vocês, ampliação do escopo, raciocínio
[29:32] vocês, ampliação do escopo, raciocínio multimodalidade, sistemas que combinam
[29:34] multimodalidade, sistemas que combinam percepção, planejamento e ação e tempo
[29:36] percepção, planejamento e ação e tempo de inferência. Eh, eh, percepção e
[29:39] de inferência. Eh, eh, percepção e escala em tempo de inferência. Mas ainda
[29:42] escala em tempo de inferência. Mas ainda precisamos robustez, confiabilidade,
[29:45] precisamos robustez, confiabilidade, eficiência comparável à inteligência
[29:46] eficiência comparável à inteligência biológica. Falta o grounding causal.
[29:49] biológica. Falta o grounding causal. Então, eu tenho alunos que pesquisam
[29:52] Então, eu tenho alunos que pesquisam causalidade.
[29:53] causalidade. A machine learning e a de forma clássica
[29:56] A machine learning e a de forma clássica e são muito bons para encontrar
[29:59] e são muito bons para encontrar correlações
[30:01] correlações e historicamente muito ruins para saber
[30:04] e historicamente muito ruins para saber o que que causa o quê.
[30:07] o que que causa o quê. E depois de encontrar o que que causa o
[30:08] E depois de encontrar o que que causa o quê, você ainda tem que ter avanços na
[30:11] quê, você ainda tem que ter avanços na intervenção.
[30:13] intervenção. Ou seja, você descobre que A causa B. E
[30:15] Ou seja, você descobre que A causa B. E agora a pergunta óbvia é: "E se eu fizer
[30:17] agora a pergunta óbvia é: "E se eu fizer uma mudança com A, qual vai ser o
[30:19] uma mudança com A, qual vai ser o impacto em B?" Nós não temos isso ainda,
[30:22] impacto em B?" Nós não temos isso ainda, a intervenção. E depois de resolver a
[30:25] a intervenção. E depois de resolver a intervenção, tem um outro nível ainda
[30:26] intervenção, tem um outro nível ainda que é o contrafactual.
[30:28] que é o contrafactual. Você deu o remédio de dose dois para o
[30:32] Você deu o remédio de dose dois para o paciente e ele morreu.
[30:35] paciente e ele morreu. E se eu tivesse dado a dose um, ele
[30:38] E se eu tivesse dado a dose um, ele teria sobrevivido? É o contrafactual. E
[30:41] teria sobrevivido? É o contrafactual. E esse mundo imaginário a IA não faz
[30:44] esse mundo imaginário a IA não faz ainda. Então ainda existem desafios.
[30:47] ainda. Então ainda existem desafios. Então se você vir Sultima falando modelo
[30:50] Então se você vir Sultima falando modelo do chat GPT 5.5 é ADI. Não é,
[30:55] do chat GPT 5.5 é ADI. Não é, não é, mas é um bom avanço.
[30:59] não é, mas é um bom avanço. Então agora não é a pergunta que nós
[31:00] Então agora não é a pergunta que nós devemos
[31:01] devemos >> fazer, não, não deve ser quando, mas o
[31:05] >> fazer, não, não deve ser quando, mas o que que nós chamaremos de
[31:08] que que nós chamaremos de nós vamos chamar performance
[31:09] nós vamos chamar performance impressionante em certos resultados?
[31:13] impressionante em certos resultados? Nós vamos ter uma competência que é
[31:14] Nós vamos ter uma competência que é geral e útil
[31:17] geral e útil e nós vamos ter uma inteligência que é
[31:18] e nós vamos ter uma inteligência que é geral e robusta? Se sim, a gente vai ter
[31:21] geral e robusta? Se sim, a gente vai ter chegado em algo importante. E é
[31:24] chegado em algo importante. E é justamente aqui que eu quero trazer o
[31:25] justamente aqui que eu quero trazer o conceito de ACI. Tem gente que argumenta
[31:28] conceito de ACI. Tem gente que argumenta que se nós conseguirmos fazer isso, não
[31:30] que se nós conseguirmos fazer isso, não interessa se a gente vai chamar de ADI,
[31:32] interessa se a gente vai chamar de ADI, porque ADI implica numa comparação com o
[31:34] porque ADI implica numa comparação com o ser humano. Vamos chamar isso em que
[31:36] ser humano. Vamos chamar isso em que algo que seja útil e afeta a vida das
[31:37] algo que seja útil e afeta a vida das pessoas. Inteligência artificial capaz e
[31:39] pessoas. Inteligência artificial capaz e pronto.
[31:41] pronto. Tá? Então o argumento é: vamos discutir
[31:44] Tá? Então o argumento é: vamos discutir inteligência artificial capaz.
[31:50] Primeira take your home lesson. A
[31:51] Primeira take your home lesson. A fronteira da I mudou de patamar, tá?
[31:55] fronteira da I mudou de patamar, tá? Então, eh, o desafio não é só construir
[31:58] Então, eh, o desafio não é só construir sistemas mais capazes, mas entender com
[32:00] sistemas mais capazes, mas entender com rigor o que essas capacidades realmente
[32:02] rigor o que essas capacidades realmente significam pra gente.
[32:07] E a pergunta não deve ser quão poderosa
[32:09] E a pergunta não deve ser quão poderosa ela se tornará. Essa pergunta é errada.
[32:14] ela se tornará. Essa pergunta é errada. A gente não deve fazer essa pergunta
[32:15] A gente não deve fazer essa pergunta concentrando atenção nas capacidades
[32:17] concentrando atenção nas capacidades técnicas e trajetórias de crescimento.
[32:19] técnicas e trajetórias de crescimento. Está acontecendo fato.
[32:21] Está acontecendo fato. A pergunta certo deve ser: Quais valores
[32:23] A pergunta certo deve ser: Quais valores guiarão o seu desenvolvimento?
[32:26] guiarão o seu desenvolvimento? Tá? Toda a tecnologia reflete as
[32:28] Tá? Toda a tecnologia reflete as prioridades e valores de quem constrói.
[32:31] prioridades e valores de quem constrói. Então a I não é uma força da natureza,
[32:32] Então a I não é uma força da natureza, uma escolha coletiva.
[32:36] uma escolha coletiva. Por quê? Porque ela não é neutra.
[32:39] Por quê? Porque ela não é neutra. Assim como tecnologias mais complexas
[32:41] Assim como tecnologias mais complexas não são neutras. Ela envolve escolhas de
[32:43] não são neutras. Ela envolve escolhas de poder, incentivos, informação e
[32:47] poder, incentivos, informação e governança,
[32:48] governança, tá? Como argumentou o teórico político
[32:51] tá? Como argumentou o teórico político Langdon Winner, artefatos t política.
[32:55] Langdon Winner, artefatos t política. A inteligência artificial não é exceção.
[32:59] A inteligência artificial não é exceção. Então, se ela envolve poder, quem
[33:02] Então, se ela envolve poder, quem controla os sistemas e quem é controlado
[33:03] controla os sistemas e quem é controlado por eles? É uma pergunta que eu gostaria
[33:05] por eles? É uma pergunta que eu gostaria que todos levassem para casa. Quem
[33:07] que todos levassem para casa. Quem controla
[33:10] controla incentivos? Quais comportamentos os
[33:13] incentivos? Quais comportamentos os sistemas recompensam ou punem?
[33:16] sistemas recompensam ou punem? Nós estamos mudando o nosso
[33:18] Nós estamos mudando o nosso comportamento para ter uma melhor
[33:20] comportamento para ter uma melhor resposta da IA ou nós estamos fazendo a
[33:23] resposta da IA ou nós estamos fazendo a IA se adaptar ao nosso comportamento? Eu
[33:25] IA se adaptar ao nosso comportamento? Eu já vi muita gente mudar comportamento
[33:27] já vi muita gente mudar comportamento para ter um um resultado do algoritmo
[33:29] para ter um um resultado do algoritmo razoável,
[33:31] razoável, tá?
[33:32] tá? Informação: onde vem os dados coletados,
[33:36] Informação: onde vem os dados coletados, processados, para quê? Para quem?
[33:39] processados, para quê? Para quem? governança, quem tem o direito de
[33:41] governança, quem tem o direito de decidir sobre o design.
[33:46] Então, esse é um momento histórico. Como
[33:47] Então, esse é um momento histórico. Como eu comentei com vocês, isso tá
[33:49] eu comentei com vocês, isso tá acontecendo agora na nossa vida. A
[33:51] acontecendo agora na nossa vida. A escolha que nós fizermos agora é a que
[33:52] escolha que nós fizermos agora é a que vai afetar os anos que virão, vão afetar
[33:55] vai afetar os anos que virão, vão afetar os filhos, as novas gerações.
[33:58] os filhos, as novas gerações. Então, com esses sistemas que
[34:00] Então, com esses sistemas que compreendem, geram, traduzem texto, tem
[34:03] compreendem, geram, traduzem texto, tem raciocínio, tem percepção, tem produção
[34:05] raciocínio, tem percepção, tem produção criativa, levanta questões profundas do
[34:09] criativa, levanta questões profundas do papel humano.
[34:11] papel humano. Nas palestras que eu dou pelo mundo
[34:12] Nas palestras que eu dou pelo mundo todo, as pessoas vêm me perguntar: "Ou
[34:14] todo, as pessoas vêm me perguntar: "Ou na palestra ou depois da palestra, eu
[34:15] na palestra ou depois da palestra, eu tenho filho em casa, o que que eu devo
[34:17] tenho filho em casa, o que que eu devo sugerir para ele estudar?"
[34:19] sugerir para ele estudar?" É uma das perguntas que eu mais recebo
[34:21] É uma das perguntas que eu mais recebo alguns anos atrás era se o mundo seria
[34:23] alguns anos atrás era se o mundo seria dominado pela EA e o ser humano ia ser o
[34:25] dominado pela EA e o ser humano ia ser o IP, né, destruído. Agora passou, parece
[34:27] IP, né, destruído. Agora passou, parece que a população tá tendo um entendimento
[34:29] que a população tá tendo um entendimento um pouco maior de a pergunta principal
[34:31] um pouco maior de a pergunta principal agora e tem muito mais sentido para mim
[34:33] agora e tem muito mais sentido para mim é essa: que eu sugiro pros meus filhos
[34:36] é essa: que eu sugiro pros meus filhos estudarem, como que eu educo os meus
[34:38] estudarem, como que eu educo os meus filhos? Eu devo proibir a tela? Já me
[34:40] filhos? Eu devo proibir a tela? Já me perguntaram
[34:41] perguntaram se deve proibir a tela, se deve permitir
[34:43] se deve proibir a tela, se deve permitir que a criança só brinque com eh
[34:45] que a criança só brinque com eh brinquedos são que são físicos.
[34:49] brinquedos são que são físicos. ou se deve limitar o número de horas,
[34:51] ou se deve limitar o número de horas, ah, 2 horas por dia é suficiente. Eu não
[34:53] ah, 2 horas por dia é suficiente. Eu não tenho as respostas,
[34:58] eu não tenho filhos. [risadas]
[35:03] Então, o dilema central aqui é: a gente
[35:05] Então, o dilema central aqui é: a gente quer desenvolver soluções que sejam
[35:07] quer desenvolver soluções que sejam orientadas à otimização
[35:11] orientadas à otimização ou concentradas no ser humano. Para quem
[35:13] ou concentradas no ser humano. Para quem é do Record, já deve ter ouvido falar,
[35:15] é do Record, já deve ter ouvido falar, não só por Bimbers, vários colegas
[35:17] não só por Bimbers, vários colegas professores do Record, que nós
[35:18] professores do Record, que nós desenvolvemos no laboratório e a
[35:20] desenvolvemos no laboratório e a centrada no ser humano, Human Center,
[35:23] centrada no ser humano, Human Center, nas nossas projetos, nos nossos projetos
[35:25] nas nossas projetos, nos nossos projetos submetidos, nos nossos artigos, nas
[35:27] submetidos, nos nossos artigos, nas nossas soluções desenvolvidas, sempre
[35:28] nossas soluções desenvolvidas, sempre tem um especialista participando. Por
[35:30] tem um especialista participando. Por exemplo, no Viva Bem, nós trabalhamos
[35:32] exemplo, no Viva Bem, nós trabalhamos com especialistas da área médica, eh, da
[35:36] com especialistas da área médica, eh, da elétrica, eh, da educação física. Nos
[35:40] elétrica, eh, da educação física. Nos projetos, por exemplo, de petróleo, nós
[35:42] projetos, por exemplo, de petróleo, nós temos especialidade, temos físicos. Eh,
[35:44] temos especialidade, temos físicos. Eh, no projeto ORUS temos eh pessoal da
[35:47] no projeto ORUS temos eh pessoal da comunicação, de sociologia, de
[35:48] comunicação, de sociologia, de computação, jornalismo, ou seja, o
[35:51] computação, jornalismo, ou seja, o especialista faz parte do look.
[35:54] especialista faz parte do look. Isso é importante a gente centrar no ser
[35:55] Isso é importante a gente centrar no ser humano, porque quando a gente desenvolve
[35:57] humano, porque quando a gente desenvolve a tecnologia orientada à otimização, o
[35:59] a tecnologia orientada à otimização, o foco é simplesmente na eficiência e na
[36:02] foco é simplesmente na eficiência e na automação, maximização de métricas,
[36:05] automação, maximização de métricas, substituição das capacidades humanas e
[36:06] substituição das capacidades humanas e lógica centrada no sistema. Isso aqui é
[36:10] lógica centrada no sistema. Isso aqui é uma visão que nós chamamos de visão
[36:11] uma visão que nós chamamos de visão utilitária,
[36:12] utilitária, tá? Por outro lado, quando a gente tem
[36:15] tá? Por outro lado, quando a gente tem um desenvolvimento de soluções baseadas
[36:17] um desenvolvimento de soluções baseadas no ser humano, o ser humano ele
[36:19] no ser humano, o ser humano ele participa do processo desde a coleta do
[36:21] participa do processo desde a coleta do dado,
[36:22] dado, o desenvolvimento das técnicas, a
[36:24] o desenvolvimento das técnicas, a interpretação dos resultados e ajuda no
[36:27] interpretação dos resultados e ajuda no processo de decisão. Ou seja, é
[36:30] processo de decisão. Ou seja, é projetado para ampliar a capacidade
[36:31] projetado para ampliar a capacidade humana. É o que nós chamamos de
[36:33] humana. É o que nós chamamos de aumentada, tá? Orientada ao bem-estar e
[36:36] aumentada, tá? Orientada ao bem-estar e a dignidade, complementa e apoia o
[36:38] a dignidade, complementa e apoia o julgamento humano. Lógica centrada nas
[36:41] julgamento humano. Lógica centrada nas pessoas.
[36:43] pessoas. Então, consideremos essa máquina que
[36:45] Então, consideremos essa máquina que para mim é a mais fantástica, que já
[36:48] para mim é a mais fantástica, que já existiu, que é o Cé,
[36:51] existiu, que é o Cé, como diz o Miguel Nicoleles, é o
[36:53] como diz o Miguel Nicoleles, é o verdadeiro criador de tudo. Tem um livro
[36:56] verdadeiro criador de tudo. Tem um livro dele com esse título. Você pode achar
[36:58] dele com esse título. Você pode achar que é um livro sobre religião, mas não
[36:59] que é um livro sobre religião, mas não é. Ele tem um argumento ali que
[37:01] é. Ele tem um argumento ali que justamente as coisas que nós conseguimos
[37:03] justamente as coisas que nós conseguimos como sociedade hoje foi tudo pela
[37:04] como sociedade hoje foi tudo pela criação do nosso cérebro.
[37:06] criação do nosso cérebro. Temos 86 bilhões de neurônios,
[37:10] Temos 86 bilhões de neurônios, realizamos 100 trilhões de sinapses
[37:14] realizamos 100 trilhões de sinapses e uma evolução de 300.000 anos, pelo
[37:16] e uma evolução de 300.000 anos, pelo menos.
[37:21] E o grande segredo dessa máquina é que a
[37:23] E o grande segredo dessa máquina é que a inteligência não tá só dentro dela, ela
[37:27] inteligência não tá só dentro dela, ela tá no coletivo. A verdadeira
[37:29] tá no coletivo. A verdadeira inteligência humana está no coletivo
[37:34] inteligência humana está no coletivo na nossa capacidade de transmissão de
[37:36] na nossa capacidade de transmissão de conhecimento passado de geração em
[37:39] conhecimento passado de geração em geração por meio de linguagem, escrita e
[37:42] geração por meio de linguagem, escrita e cultura.
[37:44] cultura. Aprimoramento.
[37:46] Aprimoramento. Cada geração refina, corrige e expande o
[37:48] Cada geração refina, corrige e expande o conhecimento recebido
[37:51] conhecimento recebido e compartilhamento em escala,
[37:54] e compartilhamento em escala, instituições que permitem o
[37:55] instituições que permitem o conhecimento, beneficiando toda a
[37:57] conhecimento, beneficiando toda a sociedade de forma simultânea.
[38:02] E eu comecei a enxergar isso,
[38:03] E eu comecei a enxergar isso, principalmente a partir de 2018, quando
[38:06] principalmente a partir de 2018, quando eu comecei a a me perguntar onde está de
[38:09] eu comecei a a me perguntar onde está de fato a inteligência.
[38:12] fato a inteligência. Isso coincidiu com a minha transformação
[38:13] Isso coincidiu com a minha transformação no yoga. Meus professores de yoga estão
[38:15] no yoga. Meus professores de yoga estão aqui. Obrigado pela presença. Ah, o
[38:18] aqui. Obrigado pela presença. Ah, o conhecimento do budismo. E hoje eu
[38:20] conhecimento do budismo. E hoje eu consigo ver um pouco diferente essa
[38:23] consigo ver um pouco diferente essa questão de busca da inteligência
[38:25] questão de busca da inteligência artificial. Não é eu tentar chegar na
[38:27] artificial. Não é eu tentar chegar na inteligência de um cérebro.
[38:30] inteligência de um cérebro. A inteligência humana é muito mais
[38:31] A inteligência humana é muito mais complexa do que isso.
[38:36] Então, a evolução eh cultural, como
[38:38] Então, a evolução eh cultural, como trazida nessa tese muito interessante do
[38:40] trazida nessa tese muito interessante do Heinrich e Thomaselo, antropólogos como
[38:43] Heinrich e Thomaselo, antropólogos como Joseph Heinrheit e e Michael Thomaselo
[38:46] Joseph Heinrheit e e Michael Thomaselo argumentam que os humanos não são
[38:48] argumentam que os humanos não são bem-sucedidos porque os indivíduos são
[38:50] bem-sucedidos porque os indivíduos são os mais inteligentes.
[38:53] os mais inteligentes. Nós somos bem-sucedidos porque nós
[38:55] Nós somos bem-sucedidos porque nós podemos aprender uns com os outros e
[38:57] podemos aprender uns com os outros e acumular conhecimento ao longo de
[39:00] acumular conhecimento ao longo de gerações.
[39:02] gerações. E o que que nos torna torna únicos? Aqui
[39:04] E o que que nos torna torna únicos? Aqui vai um pouquinho na direção das
[39:05] vai um pouquinho na direção das perguntas que muitas pessoas me fazem
[39:08] perguntas que muitas pessoas me fazem eh nas palestras, né? O que ensinar pros
[39:11] eh nas palestras, né? O que ensinar pros filhos? O que que nos torna únicos
[39:13] filhos? O que que nos torna únicos quanto humanos? Aprendizagem social
[39:16] quanto humanos? Aprendizagem social sofisticada.
[39:19] sofisticada. A imitação intencional e transmissão
[39:21] A imitação intencional e transmissão fiel. o ensino explícito entre
[39:23] fiel. o ensino explícito entre indivíduos, criação e uso de símbolos
[39:26] indivíduos, criação e uso de símbolos culturais e acumulação melhorias ao
[39:28] culturais e acumulação melhorias ao longo do tempo. A nossa capacidade de
[39:30] longo do tempo. A nossa capacidade de inteligência coletiva acumulativa é o
[39:32] inteligência coletiva acumulativa é o que diferencia fundamentalmente o humano
[39:34] que diferencia fundamentalmente o humano de todas as outras espécies.
[39:39] E isso tem um grande poder.
[39:42] E isso tem um grande poder. A pesquisa científica é um exemplo
[39:43] A pesquisa científica é um exemplo disso. Conhecimento verificado,
[39:46] disso. Conhecimento verificado, replicável, acumulativo. sistemas
[39:49] replicável, acumulativo. sistemas jurídicos, normas que codificam os
[39:51] jurídicos, normas que codificam os valores e estabelecem o estado
[39:53] valores e estabelecem o estado democrático de direito, que permitem que
[39:56] democrático de direito, que permitem que a gente não viva num mundo totalmente
[39:58] a gente não viva num mundo totalmente sem lei.
[40:00] sem lei. Educação, a transmissão sistemática do
[40:02] Educação, a transmissão sistemática do conhecimento, existem ineficiências na
[40:03] conhecimento, existem ineficiências na educação? Existem, mas olha que
[40:05] educação? Existem, mas olha que fantástico o ponto que nós estamos com o
[40:07] fantástico o ponto que nós estamos com o sistema educacional que nós
[40:08] sistema educacional que nós desenvolvemos ao longo da história.
[40:11] desenvolvemos ao longo da história. Instituições democráticas, mecanismos
[40:12] Instituições democráticas, mecanismos para coordenar decisões coletivas. Quem
[40:15] para coordenar decisões coletivas. Quem conhece um pouco mais de democracia e
[40:17] conhece um pouco mais de democracia e sabe que democracia não é só o momento
[40:19] sabe que democracia não é só o momento do voto, sabe que a democracia é linda
[40:22] do voto, sabe que a democracia é linda no processo de discutir em coletivos e e
[40:27] no processo de discutir em coletivos e e você buscar atingir objetivos que
[40:29] você buscar atingir objetivos que benefiem a maior parte das pessoas ao
[40:32] benefiem a maior parte das pessoas ao mesmo tempo e que não joga no lixo as
[40:35] mesmo tempo e que não joga no lixo as minorias.
[40:36] minorias. Porque se demografia democracia fosse
[40:38] Porque se demografia democracia fosse simplesmente respeitar só pela eleição a
[40:41] simplesmente respeitar só pela eleição a voz da maioria, as minorias deixariam de
[40:43] voz da maioria, as minorias deixariam de existir,
[40:45] existir, certo?
[40:48] Então, os fondos fortes da cognição
[40:49] Então, os fondos fortes da cognição humana, para vocês nunca esquecerem,
[40:51] humana, para vocês nunca esquecerem, raciocínio ético, vai pedir para
[40:54] raciocínio ético, vai pedir para algoritmo pensar éticamente.
[40:56] algoritmo pensar éticamente. Então, capacidade de fazer julgamentos
[40:57] Então, capacidade de fazer julgamentos morais contextualizados, empatia,
[41:01] morais contextualizados, empatia, compreensão afetiva das experiências e
[41:03] compreensão afetiva das experiências e necessidades dos outros, compreensão
[41:06] necessidades dos outros, compreensão contextual, interpretação de
[41:08] contextual, interpretação de significados dentro de contextos
[41:09] significados dentro de contextos culturais e sociais ricos e construção
[41:12] culturais e sociais ricos e construção desse sentido,
[41:14] desse sentido, criação de narrativas e proposas ao
[41:16] criação de narrativas e proposas ao longo de longo prazo que orientam a vida
[41:18] longo de longo prazo que orientam a vida humana.
[41:20] humana. Esses são os pontos fortes da cognição
[41:22] Esses são os pontos fortes da cognição humana.
[41:24] humana. E a gente tem um outro lado, o que que a
[41:25] E a gente tem um outro lado, o que que a IA complementa isso? Por isso que eu
[41:27] IA complementa isso? Por isso que eu vivo falando que a gente precisa olhar
[41:29] vivo falando que a gente precisa olhar para essas eh IAs como uma forma de
[41:32] para essas eh IAs como uma forma de aumentar a nossa capacidade. Gente, não
[41:34] aumentar a nossa capacidade. Gente, não tem como competir com IAS para
[41:35] tem como competir com IAS para reconhecimento de padrões. Você não vai
[41:37] reconhecimento de padrões. Você não vai ter condição de competir com um técnica
[41:39] ter condição de competir com um técnica que é especializada em achar padrão em
[41:42] que é especializada em achar padrão em zilhões de dados
[41:45] zilhões de dados e você não vai conseguir processar esses
[41:46] e você não vai conseguir processar esses dados tão rapidamente quanto o
[41:47] dados tão rapidamente quanto o computador. Não adianta.
[41:50] computador. Não adianta. inferência estatística, as detecções que
[41:51] inferência estatística, as detecções que eu comentei aqui de correlações rápidas,
[41:54] eu comentei aqui de correlações rápidas, ela é que faz bem, mas depois você pode
[41:56] ela é que faz bem, mas depois você pode usar a sua, o seu pensamento crítico
[41:58] usar a sua, o seu pensamento crítico para poder excluir aquelas correlações
[42:00] para poder excluir aquelas correlações escuras e tentar chegar em algo que vai
[42:01] escuras e tentar chegar em algo que vai ser útil e também em otimização e há
[42:05] ser útil e também em otimização e há efeito para otimizar a busca dessas
[42:08] efeito para otimizar a busca dessas soluções aqui de reconhecimento de
[42:09] soluções aqui de reconhecimento de padrões, inferência estatística. Então,
[42:11] padrões, inferência estatística. Então, junto o que nós somos bons
[42:13] junto o que nós somos bons com o que a IA é bom, boa.
[42:17] com o que a IA é bom, boa. Essa é a proposta da complementaridade.
[42:19] Essa é a proposta da complementaridade. Inteligência humana, ética, empatia,
[42:21] Inteligência humana, ética, empatia, contexto, criatividade, responsabilidade
[42:22] contexto, criatividade, responsabilidade moral e construção de sentido, mas a
[42:25] moral e construção de sentido, mas a colaboração com as tecnologias do tipo
[42:27] colaboração com as tecnologias do tipo inteligência artificial para somar o que
[42:29] inteligência artificial para somar o que que é o melhor de cada parte. É aí que a
[42:32] que é o melhor de cada parte. É aí que a gente chega nessa capacidade aumentada.
[42:38] E eu vou trazer alguns exemplos aqui de
[42:39] E eu vou trazer alguns exemplos aqui de capacidades aumentadas. Por exemplo,
[42:40] capacidades aumentadas. Por exemplo, diagnóstico médico. Já tem experimentos
[42:42] diagnóstico médico. Já tem experimentos que mostram que uma IA trabalhando
[42:44] que mostram que uma IA trabalhando sozinha ou especialistas trabalhando
[42:46] sozinha ou especialistas trabalhando sozinho na detecção de câncer não são
[42:48] sozinho na detecção de câncer não são tão bons quanto os dois trabalhando
[42:50] tão bons quanto os dois trabalhando juntos.
[42:52] juntos. Descoberta científica. Alguns meses
[42:55] Descoberta científica. Alguns meses atrás nós tivemos o primeiro antibiótico
[42:58] atrás nós tivemos o primeiro antibiótico criado com ajuda de inteligência
[42:59] criado com ajuda de inteligência artificial. É um exemplo de interação
[43:02] artificial. É um exemplo de interação especialista e tecnologia.
[43:05] especialista e tecnologia. Modelos climáticos. A Iá processa dados
[43:08] Modelos climáticos. A Iá processa dados climáticos globais em escala impossível,
[43:10] climáticos globais em escala impossível, apoiando cientistas para compreensão dos
[43:12] apoiando cientistas para compreensão dos sistemas complexos.
[43:15] Então, nós não podemos correr o risco de
[43:16] Então, nós não podemos correr o risco de esquecer o que que é ser humano.
[43:19] esquecer o que que é ser humano. Precisamos pensar na nossa capacidade de
[43:21] Precisamos pensar na nossa capacidade de julgamento, de responsabilidade,
[43:24] julgamento, de responsabilidade, de prestação de contas, que é a
[43:25] de prestação de contas, que é a expressão em inglês accountability
[43:28] expressão em inglês accountability e agência moral, a capacidade de agir
[43:30] e agência moral, a capacidade de agir com base em valores e não apenas na
[43:34] com base em valores e não apenas na otimização de métricas na visão
[43:35] otimização de métricas na visão utilitária.
[43:39] Então aqui a gente tem duas visões
[43:40] Então aqui a gente tem duas visões concorrentes, tá? Essa visão concorrente
[43:43] concorrentes, tá? Essa visão concorrente não sou eu que tô trazendo. Se você
[43:45] não sou eu que tô trazendo. Se você começa a estudar um pouco mais desse
[43:46] começa a estudar um pouco mais desse mundo da inteligência artificial, você
[43:47] mundo da inteligência artificial, você vai ver que tem pelo menos duas
[43:49] vai ver que tem pelo menos duas concorrências hoje grandes.
[43:51] concorrências hoje grandes. Eu posso dar exemplos de quem tá de cada
[43:53] Eu posso dar exemplos de quem tá de cada lado, por exemplo. E a tecnocrática
[43:57] lado, por exemplo. E a tecnocrática prioriza eficiência, automação e
[43:58] prioriza eficiência, automação e produtividade. Maximiza métricas
[44:00] produtividade. Maximiza métricas mensuráveis frequentemente, sem
[44:02] mensuráveis frequentemente, sem considerar consequências sociais mais
[44:04] considerar consequências sociais mais amplas.
[44:05] amplas. Isso é um lado. Sutman ou PNA é um
[44:08] Isso é um lado. Sutman ou PNA é um exemplo aqui, tá?
[44:11] exemplo aqui, tá? E a humanista do outro lado, prioriza
[44:14] E a humanista do outro lado, prioriza dignidade, autonomia e bem-estar humano.
[44:18] dignidade, autonomia e bem-estar humano. Pergunta: Não é o que pode ser
[44:20] Pergunta: Não é o que pode ser otimizado, mas o que melhora a vida das
[44:23] otimizado, mas o que melhora a vida das pessoas.
[44:26] pessoas. Aqui a gente tem, por exemplo, Ian
[44:27] Aqui a gente tem, por exemplo, Ian Lecan,
[44:29] Lecan, eh, pesquisa nessa linha, nós temos
[44:32] eh, pesquisa nessa linha, nós temos Dario Amodei, Dan Tropic, ele defende
[44:35] Dario Amodei, Dan Tropic, ele defende essa linha e muitas outras pessoas. é o
[44:37] essa linha e muitas outras pessoas. é o que nós fazemos aqui no Ribot, por
[44:39] que nós fazemos aqui no Ribot, por exemplo.
[44:42] Então, a tecnocrática busca eficiência,
[44:45] Então, a tecnocrática busca eficiência, automação, produtividade e engajamento,
[44:50] automação, produtividade e engajamento, tá? Quanto que você pode otimizar o
[44:53] tá? Quanto que você pode otimizar o tempo de atenção dos usuários nas
[44:55] tempo de atenção dos usuários nas plataformas digital? A economia da
[44:57] plataformas digital? A economia da atenção, o máximo que você ficar ali
[45:00] atenção, o máximo que você ficar ali para eles é melhor.
[45:04] Quais são os riscos desses sistemas
[45:06] Quais são os riscos desses sistemas puramente tecnocráticos? Não sei se
[45:09] puramente tecnocráticos? Não sei se vocês já pararam para pensar sobre isso.
[45:10] vocês já pararam para pensar sobre isso. A primeira coisa é a manipulação da
[45:12] A primeira coisa é a manipulação da atenção.
[45:14] atenção. Algoritmos que maximizam o engajamento,
[45:16] Algoritmos que maximizam o engajamento, captura atenção humana às custas do
[45:18] captura atenção humana às custas do bem-estar psicológico.
[45:20] bem-estar psicológico. Segunda coisa, amplificação da
[45:21] Segunda coisa, amplificação da desinformação. A gente faz muita
[45:22] desinformação. A gente faz muita pesquisa no LP sobre desinformação.
[45:25] pesquisa no LP sobre desinformação. Conteúdo emocionalmente carregado e
[45:27] Conteúdo emocionalmente carregado e falso frequentemente são os que geram
[45:29] falso frequentemente são os que geram engajamento. gerando engajamento, mais
[45:32] engajamento. gerando engajamento, mais tempo de atenção para essas plataformas
[45:35] tempo de atenção para essas plataformas e concentração de poder. Gente,
[45:39] e concentração de poder. Gente, quando eu era criança e passei a
[45:41] quando eu era criança e passei a entender o mundo um pouco mais, eu
[45:43] entender o mundo um pouco mais, eu aprendi a palavra bilhão
[45:46] aprendi a palavra bilhão e depois eu descobri que uma pessoa
[45:48] e depois eu descobri que uma pessoa poderia juntar bilhão,
[45:51] poderia juntar bilhão, mas parece que eu tenho que revisitar
[45:52] mas parece que eu tenho que revisitar meus conceitos porque parece que uma
[45:54] meus conceitos porque parece que uma pessoa pode juntar trilhão, né? Se vocês
[45:56] pessoa pode juntar trilhão, né? Se vocês virem, por exemplo, Elon Musk vai ser o
[45:58] virem, por exemplo, Elon Musk vai ser o primeiro trilionário da história. Isso é
[46:01] primeiro trilionário da história. Isso é completamente não inteligível. Uma
[46:04] completamente não inteligível. Uma pessoa tem 1 trilhão de dólares.
[46:09] pessoa tem 1 trilhão de dólares. Então, as as grandes plataformas, elas
[46:10] Então, as as grandes plataformas, elas também permitem um acúmulo de capital
[46:13] também permitem um acúmulo de capital muito grande, sem precedentes, o que
[46:15] muito grande, sem precedentes, o que gera uma assimetria preocupante para as
[46:17] gera uma assimetria preocupante para as instituições democráticas.
[46:22] Como escrito e muito bem estudado, um
[46:24] Como escrito e muito bem estudado, um dos livros que eu recomendo na
[46:26] dos livros que eu recomendo na disciplina que eu dou no segundo
[46:27] disciplina que eu dou no segundo semestre sobre os impactos sociais e
[46:29] semestre sobre os impactos sociais e políticos da IA pela [ __ ] Zubof. O
[46:31] políticos da IA pela [ __ ] Zubof. O comportamento humano hoje se torna
[46:34] comportamento humano hoje se torna matériapra para previsão e lucta.
[46:38] matériapra para previsão e lucta. Como que funciona o sistema? O
[46:40] Como que funciona o sistema? O comportamento humano é registrado, os
[46:42] comportamento humano é registrado, os dados são transformados em modelo
[46:43] dados são transformados em modelo preditivo, a previsão é vendida como
[46:45] preditivo, a previsão é vendida como produto, os sistemas influenciam o
[46:47] produto, os sistemas influenciam o comportamento futuro e o ciclo se
[46:49] comportamento futuro e o ciclo se retroalimenta. Tem inclusive um livro
[46:51] retroalimenta. Tem inclusive um livro que discute isso que se chama Olup,
[46:55] que discute isso que se chama Olup, porque isso aqui se repete. Então esse é
[46:57] porque isso aqui se repete. Então esse é um caso que eu quero que vocês pensem um
[46:59] um caso que eu quero que vocês pensem um pouco sobre como vocês podem quebrar
[47:02] pouco sobre como vocês podem quebrar esse look. Por outro lado, eu gostaria
[47:05] esse look. Por outro lado, eu gostaria de trazer aqui o conceito de Iá
[47:07] de trazer aqui o conceito de Iá humanista. Essa IA que tem a premissa
[47:10] humanista. Essa IA que tem a premissa radicalmente diferente, a defesa da
[47:12] radicalmente diferente, a defesa da dignidade, autonomia e bem-estar.
[47:16] dignidade, autonomia e bem-estar. A pergunta do outro lado, tecnocrática,
[47:19] A pergunta do outro lado, tecnocrática, é o que que pode ser otimizado? A
[47:21] é o que que pode ser otimizado? A pergunta que a gente quer fazer aqui, o
[47:22] pergunta que a gente quer fazer aqui, o que que melhora de fato a vida das
[47:23] que que melhora de fato a vida das pessoas?
[47:25] pessoas? Como que a tecnologia pode de fato
[47:27] Como que a tecnologia pode de fato melhorar?
[47:30] Quais são os princípios? Princípios da
[47:32] Quais são os princípios? Princípios da transparência. Você vai desenvolver um
[47:33] transparência. Você vai desenvolver um algoritmo, você pensa como que ele pode
[47:35] algoritmo, você pensa como que ele pode ser transparente, como que ele pode ser
[47:36] ser transparente, como que ele pode ser auditável. como que ele vai ser justo
[47:38] auditável. como que ele vai ser justo para diferentes pessoas, para minorias,
[47:42] para diferentes pessoas, para minorias, que benefício social ele traz? Ele traz
[47:45] que benefício social ele traz? Ele traz o impacto positivo e mensurável paraa
[47:46] o impacto positivo e mensurável paraa sociedade?
[47:48] sociedade? E a responsabilidade, quais são os
[47:49] E a responsabilidade, quais são os mecanismos de prestação de contas quando
[47:51] mecanismos de prestação de contas quando ele der errado?
[47:56] Na prática, por exemplo, a gente pode
[47:57] Na prática, por exemplo, a gente pode pensar, como a gente faz aqui no no Viva
[47:59] pensar, como a gente faz aqui no no Viva Bem, quando você trabalha com
[48:01] Bem, quando você trabalha com Ialumanista, como que você pode dar
[48:04] Ialumanista, como que você pode dar alertas para usuários
[48:06] alertas para usuários com especialistas no loop, fazendo com
[48:10] com especialistas no loop, fazendo com que o usuário possa procurar um
[48:11] que o usuário possa procurar um especialista para mais informações?
[48:14] especialista para mais informações? Ou como que você pode desenvolver
[48:15] Ou como que você pode desenvolver modelos climáticos mais precisos,
[48:17] modelos climáticos mais precisos, considerando os impactos ambientais e
[48:19] considerando os impactos ambientais e das populações locais?
[48:21] das populações locais? [limpando a garganta]
[48:22] [limpando a garganta] Na educação, como é que você trabalha
[48:23] Na educação, como é que você trabalha com aprendizagem personalizada,
[48:26] com aprendizagem personalizada, não deixando ninguém para trás, ou na
[48:28] não deixando ninguém para trás, ou na acessibilidade? Como é que você pode
[48:30] acessibilidade? Como é que você pode usar esse tipo de tecnologia para
[48:32] usar esse tipo de tecnologia para garantir a acessibilidade daqueles que
[48:33] garantir a acessibilidade daqueles que têm mais dificuldade?
[48:37] Na medicina, detecção precoce de câncer,
[48:39] Na medicina, detecção precoce de câncer, análise de exame radiológico,
[48:41] análise de exame radiológico, personalização, predição de riscos,
[48:45] personalização, predição de riscos, sempre pensando na expertise em empatia
[48:48] sempre pensando na expertise em empatia humana no processo.
[48:51] humana no processo. Na ciência, a estrutura de dobra de
[48:52] Na ciência, a estrutura de dobra de proteína, por exemplo, Alpha Fold foi um
[48:54] proteína, por exemplo, Alpha Fold foi um grande avanço, mostra justamente essa
[48:57] grande avanço, mostra justamente essa capacidade de você desenvolver soluções
[48:59] capacidade de você desenvolver soluções que vão ajudar diretamente as pessoas
[49:02] que vão ajudar diretamente as pessoas em ciência de materiais, pesquisas para
[49:04] em ciência de materiais, pesquisas para novos materiais, por exemplo, isso aqui
[49:05] novos materiais, por exemplo, isso aqui pode trazer grandes avanços no futuro,
[49:07] pode trazer grandes avanços no futuro, descoberta de novos medicamentos são os
[49:08] descoberta de novos medicamentos são os fármacos.
[49:10] fármacos. Então, existe uma grande diferença. Até
[49:12] Então, existe uma grande diferença. Até onde podemos empurrar a tecnologia é a
[49:14] onde podemos empurrar a tecnologia é a visão tecnocrática.
[49:17] visão tecnocrática. E a outra visão humanista é como a
[49:19] E a outra visão humanista é como a tecnologia pode servir à humanidade.
[49:24] Então, as ideologias elas moldam o
[49:27] Então, as ideologias elas moldam o discurso.
[49:29] discurso. E eu quero trazer algumas ideologias
[49:30] E eu quero trazer algumas ideologias aqui para vocês que talvez vocês nunca
[49:32] aqui para vocês que talvez vocês nunca tenham ouvido falar, mas elas estão
[49:34] tenham ouvido falar, mas elas estão presentes principalmente no Vale do
[49:35] presentes principalmente no Vale do Silício e elas têm muito impacto na na
[49:38] Silício e elas têm muito impacto na na forma como a gente vê as coisas, porque
[49:39] forma como a gente vê as coisas, porque é quem move o dinheiro.
[49:44] é quem move o dinheiro. Então, a gente pode considerar
[49:46] Então, a gente pode considerar narrativas, por exemplo, científicas,
[49:48] narrativas, por exemplo, científicas, que que são aquelas baseadas em
[49:49] que que são aquelas baseadas em evidências, incertezas reconhecidas,
[49:51] evidências, incertezas reconhecidas, ou ideológicas, baseadas em premissas
[49:54] ou ideológicas, baseadas em premissas filosóficas, visões de mundo e interesse
[49:56] filosóficas, visões de mundo e interesse de grupos específicos. E isso é
[49:58] de grupos específicos. E isso é importante distinguir, vocês vão ver
[49:59] importante distinguir, vocês vão ver porquê.
[50:01] porquê. A Tim Gibrot e a Emily Torres fizeram um
[50:04] A Tim Gibrot e a Emily Torres fizeram um estudo muito interessante trazendo o
[50:06] estudo muito interessante trazendo o conceito de T SC crew. Vocês já ouviram
[50:08] conceito de T SC crew. Vocês já ouviram falar desse termo?
[50:10] falar desse termo? Não, né? Porque como eu falei, quando a
[50:12] Não, né? Porque como eu falei, quando a gente pensa em inteligência artificial,
[50:14] gente pensa em inteligência artificial, a gente fica na primeira parte, que é
[50:15] a gente fica na primeira parte, que é aquela que eu falei até agora.
[50:18] aquela que eu falei até agora. Agora vem o conceito que normalmente
[50:20] Agora vem o conceito que normalmente vocês não veem, isso não passa na Globo,
[50:23] vocês não veem, isso não passa na Globo, né? Que é o seguinte,
[50:27] né? Que é o seguinte, esse termo identifica um conjunto coeso
[50:30] esse termo identifica um conjunto coeso de suposições compartilhadas sobre
[50:32] de suposições compartilhadas sobre tecnologia, humanidade e o futuro da
[50:34] tecnologia, humanidade e o futuro da civilização.
[50:36] civilização. Nós estamos falando aqui de bilhões de
[50:38] Nós estamos falando aqui de bilhões de dólares nesse movimento, tá?
[50:42] dólares nesse movimento, tá? E a gente precisa entender esse
[50:43] E a gente precisa entender esse movimento como um todo. Então, quando a
[50:44] movimento como um todo. Então, quando a gente fala de inteligência artificial,
[50:46] gente fala de inteligência artificial, além do fato de nós não estarmos falando
[50:48] além do fato de nós não estarmos falando de uma tecnologia em si, estamos falando
[50:50] de uma tecnologia em si, estamos falando de uma tecnologia de propósito geral,
[50:52] de uma tecnologia de propósito geral, além de estarmos falando de algo que
[50:54] além de estarmos falando de algo que modifica a vida das pessoas no dia a
[50:56] modifica a vida das pessoas no dia a dia, temos mais por trás.
[51:02] dia, temos mais por trás. Nós temos sete conceitos caminhando em
[51:05] Nós temos sete conceitos caminhando em paralelo.
[51:07] paralelo. O conceito do transhumanismo,
[51:11] O conceito do transhumanismo, que é a transcendência dos limites
[51:13] que é a transcendência dos limites biológicos humanos.
[51:16] biológicos humanos. Vou dar exemplo. Estropianismo,
[51:19] Vou dar exemplo. Estropianismo, a reversão da entropia e
[51:21] a reversão da entropia e superinteligência,
[51:23] superinteligência, o singularitarianismo,
[51:26] o singularitarianismo, criação da superinteligência
[51:27] criação da superinteligência transformadora,
[51:29] transformadora, o cosmismo,
[51:32] o cosmismo, destino cósmico da humanidade,
[51:35] destino cósmico da humanidade, racionalismo,
[51:37] racionalismo, como valor supremo, altruísmo eficaz
[51:40] como valor supremo, altruísmo eficaz como maximização do bem mensurável e
[51:43] como maximização do bem mensurável e longopazoísmo, prioridade moral no
[51:46] longopazoísmo, prioridade moral no futuro distante. Gente, isso aqui pode
[51:49] futuro distante. Gente, isso aqui pode parecer viagem, mas não é.
[51:52] parecer viagem, mas não é. Tá? Vocês vão entender que muitas coisas
[51:55] Tá? Vocês vão entender que muitas coisas que vocês vão ler e têm lido daqui paraa
[51:58] que vocês vão ler e têm lido daqui paraa frente vai ter sentido.
[52:01] frente vai ter sentido. Por exemplo, transhumanismo é a
[52:02] Por exemplo, transhumanismo é a narrativa
[52:04] narrativa de que nós vamos transcender os nossos
[52:06] de que nós vamos transcender os nossos limites biológicos, fazer o upload dos
[52:08] limites biológicos, fazer o upload dos nossos cérebros e sermos capazes de
[52:10] nossos cérebros e sermos capazes de viver no mundo digital forever.
[52:14] viver no mundo digital forever. E tem muito investimento nesse sentido.
[52:18] E tem muito investimento nesse sentido. Quem conhece um indivíduo chamado Rakers
[52:21] Quem conhece um indivíduo chamado Rakers Wild é um dos maiores defensores, por
[52:23] Wild é um dos maiores defensores, por exemplo, do transhumanismo. Sunman, um
[52:26] exemplo, do transhumanismo. Sunman, um dos maiores defensores do
[52:28] dos maiores defensores do transhumanismo,
[52:30] transhumanismo, tá? E quando você tem essa defesa do
[52:32] tá? E quando você tem essa defesa do transhumanismo, você acha mesmo que
[52:34] transhumanismo, você acha mesmo que esses caras estão preocupados em
[52:35] esses caras estão preocupados em desenvolver tecnologia para o aqui e o
[52:37] desenvolver tecnologia para o aqui e o agora, para o bem da sociedade humana?
[52:39] agora, para o bem da sociedade humana? Não, [risadas]
[52:40] Não, [risadas] porque para eles pouco importa se o
[52:41] porque para eles pouco importa se o humano desaparecer, mas eles serem
[52:43] humano desaparecer, mas eles serem capazes de fazer a sobrevivência digital
[52:47] capazes de fazer a sobrevivência digital é o suficiente.
[52:49] é o suficiente. Transhumanismo, cosmismo. Vocês têm
[52:51] Transhumanismo, cosmismo. Vocês têm ideia de uma pessoa super famosa que
[52:53] ideia de uma pessoa super famosa que defende o cosmismo para caramba?
[52:56] defende o cosmismo para caramba? >> El Musk.
[52:57] >> El Musk. >> El Musk. Elon Musk tem investimentos
[53:01] >> El Musk. Elon Musk tem investimentos pesadíssimos na ideia de que, gente, não
[53:03] pesadíssimos na ideia de que, gente, não vamos preocupar com com aquecimento
[53:05] vamos preocupar com com aquecimento global, mudanças climáticas. Esse
[53:07] global, mudanças climáticas. Esse planeta tá condenado mesmo. Vamos
[53:09] planeta tá condenado mesmo. Vamos investir na nossa corrida espacial e
[53:11] investir na nossa corrida espacial e vamos conquistar o universo. Nós temos o
[53:13] vamos conquistar o universo. Nós temos o destino cósmico de conquistar o
[53:16] destino cósmico de conquistar o universo.
[53:19] Singularitarianismo. Vocês já viram
[53:21] Singularitarianismo. Vocês já viram falar de um negócio chamado
[53:22] falar de um negócio chamado singularidade?
[53:24] singularidade? Que que significa singularidade?
[53:27] Que que significa singularidade? é o momento em que nós desenvolvemos a
[53:28] é o momento em que nós desenvolvemos a tecnologia a ponto de fazer tudo melhor
[53:31] tecnologia a ponto de fazer tudo melhor que o ser humano.
[53:33] que o ser humano. E aí já não importa se o ser humano faz
[53:35] E aí já não importa se o ser humano faz parte ou não do processo.
[53:37] parte ou não do processo. Quem quiser até saber um pouco mais
[53:39] Quem quiser até saber um pouco mais sobre isso, eu dou uma disciplina em
[53:40] sobre isso, eu dou uma disciplina em outubro, novembro chamado os impactos
[53:42] outubro, novembro chamado os impactos políticos, sociais, humanos e
[53:43] políticos, sociais, humanos e filosóficos da IA. Lá a gente discute
[53:46] filosóficos da IA. Lá a gente discute alguns futuros possíveis,
[53:48] alguns futuros possíveis, quatro deles pelo menos. E um desses
[53:51] quatro deles pelo menos. E um desses possíveis futuros com singularidade é o
[53:53] possíveis futuros com singularidade é o seguinte. Existe uma elite de menos de
[53:56] seguinte. Existe uma elite de menos de 1% da sociedade que tem acesso à
[53:58] 1% da sociedade que tem acesso à tecnologia que domina tudo, toda a
[53:59] tecnologia que domina tudo, toda a riqueza dela e os outros 99
[54:03] riqueza dela e os outros 99 não tem interesse.
[54:07] Estropianismo.
[54:08] Estropianismo. A segunda lei da termodinâmica diz que
[54:11] A segunda lei da termodinâmica diz que nós gastamos uma energia gigantesca para
[54:13] nós gastamos uma energia gigantesca para mantermos o nosso corpo como ele tá,
[54:15] mantermos o nosso corpo como ele tá, porque nós estamos lutando contra a
[54:17] porque nós estamos lutando contra a entropia,
[54:18] entropia, certo?
[54:21] Esses caras dizem o seguinte: "Vamos
[54:23] Esses caras dizem o seguinte: "Vamos investir tudo que a gente puder para
[54:25] investir tudo que a gente puder para lutar contra a entropia. Vamos viver 500
[54:28] lutar contra a entropia. Vamos viver 500 anos." A tal ponto que o Rakers Wi, por
[54:31] anos." A tal ponto que o Rakers Wi, por exemplo, deixou de se alimentar e ele
[54:33] exemplo, deixou de se alimentar e ele come 150 pílulas por dia.
[54:37] come 150 pílulas por dia. Uma pílula para minerais, uma pílula
[54:39] Uma pílula para minerais, uma pílula para proteína.
[54:41] para proteína. É impressionante, mas você olha para ele
[54:44] É impressionante, mas você olha para ele com 70 e poucos anos, parece que ele tá
[54:46] com 70 e poucos anos, parece que ele tá mais velho do que uma pessoa com 70 e
[54:48] mais velho do que uma pessoa com 70 e poucos anos que come churrasco e bebe
[54:50] poucos anos que come churrasco e bebe caiirinha. [risadas]
[54:54] Altruísmo eficaz de todos aqui é o que
[54:56] Altruísmo eficaz de todos aqui é o que me dá mais medo.
[54:59] me dá mais medo. Altruísmo eficaz, que é o movimento
[55:01] Altruísmo eficaz, que é o movimento chamado effective alorism,
[55:04] chamado effective alorism, é aquele conjunto, existe um grupo bem
[55:07] é aquele conjunto, existe um grupo bem significativo de bilionários aqui que
[55:09] significativo de bilionários aqui que fala o seguinte: "Não queremos qualquer
[55:11] fala o seguinte: "Não queremos qualquer tipo de regulamentação,
[55:13] tipo de regulamentação, não queremos qualquer eh política no
[55:17] não queremos qualquer eh política no agora. Basta a gente explorar a
[55:20] agora. Basta a gente explorar a tecnologia do modo que puder, acumular o
[55:22] tecnologia do modo que puder, acumular o máximo de riqueza que puder e antes de
[55:24] máximo de riqueza que puder e antes de morrer a gente faz doação para investir
[55:27] morrer a gente faz doação para investir na população que vai vir no futuro. Por
[55:29] na população que vai vir no futuro. Por quê? Porque eu vou maximizar a visão
[55:32] quê? Porque eu vou maximizar a visão utilitária do mundo. Eu vou maximizar o
[55:34] utilitária do mundo. Eu vou maximizar o meu impacto. Por que que você vai
[55:35] meu impacto. Por que que você vai maximizar o seu impacto se você investe
[55:37] maximizar o seu impacto se você investe na população que vai vir a toda a
[55:40] na população que vai vir a toda a população humana que já existiu soma
[55:42] população humana que já existiu soma mais ou menos, óbvio que isso é
[55:43] mais ou menos, óbvio que isso é estimado, 100 bilhões de pessoas em toda
[55:46] estimado, 100 bilhões de pessoas em toda a história. 100 bilhões de pessoas já
[55:49] a história. 100 bilhões de pessoas já viveram nesse nesse planeta.
[55:51] viveram nesse nesse planeta. Se você considerar que a gente tem pelo
[55:53] Se você considerar que a gente tem pelo menos,
[55:54] menos, sei lá, 1 milhão de anos no futuro, se a
[55:56] sei lá, 1 milhão de anos no futuro, se a gente não se destruir como espécie, o
[55:58] gente não se destruir como espécie, o que existe um grande probabilidade de
[55:59] que existe um grande probabilidade de acontecer,
[56:01] acontecer, existe a possibilidade de nós termos
[56:03] existe a possibilidade de nós termos paraa frente mais pelo menos 500 bilhões
[56:07] paraa frente mais pelo menos 500 bilhões de humanos. Então, se você fala que tá
[56:08] de humanos. Então, se você fala que tá investindo lá no futuro, eh, você
[56:13] investindo lá no futuro, eh, você vai ter uma maximização dos seus
[56:15] vai ter uma maximização dos seus efeitos. Então, esses bilionários,
[56:17] efeitos. Então, esses bilionários, muitos aqui, posso recomendar os livros
[56:20] muitos aqui, posso recomendar os livros para vocês lerem depois. Vocês têm a
[56:22] para vocês lerem depois. Vocês têm a nomeação deles e o que que cada um deles
[56:23] nomeação deles e o que que cada um deles faz.
[56:25] faz. Eh, pensa o seguinte, gente, não adianta
[56:28] Eh, pensa o seguinte, gente, não adianta a gente pesquisar
[56:31] a gente pesquisar eh cura para malária, não adianta a
[56:33] eh cura para malária, não adianta a gente pensar na dengue, não adianta a
[56:34] gente pensar na dengue, não adianta a gente pensar na aides, não adianta a
[56:35] gente pensar na aides, não adianta a gente curar o câncer. Isso aqui vai
[56:37] gente curar o câncer. Isso aqui vai afetar no máximo a população que tá
[56:38] afetar no máximo a população que tá vivendo hoje.
[56:40] vivendo hoje. Vamos pegar, guardar o dinheiro todo e
[56:41] Vamos pegar, guardar o dinheiro todo e investir na população da amanhã,
[56:45] investir na população da amanhã, tá?
[56:47] Então, esses temas comuns aqui, existe
[56:50] Então, esses temas comuns aqui, existe uma um foco muito grande nas populações
[56:52] uma um foco muito grande nas populações hipotéticas, na transcendência
[56:54] hipotéticas, na transcendência tecnológica,
[56:55] tecnológica, na super inteligência que tá no
[56:57] na super inteligência que tá no horizonte e uma visão da tecnologia como
[56:59] horizonte e uma visão da tecnologia como algo que a gente sempre tem que avançar.
[57:02] algo que a gente sempre tem que avançar. Você não pode entender a tecnologia como
[57:03] Você não pode entender a tecnologia como uma uma seta no tempo que você sempre
[57:06] uma uma seta no tempo que você sempre vai avançar. Qual que vai ser o limite?
[57:07] vai avançar. Qual que vai ser o limite? Então, o planeta tem limites, limites
[57:09] Então, o planeta tem limites, limites físicos, limites materiais.
[57:13] físicos, limites materiais. O longotermismo, por exemplo, tem um
[57:15] O longotermismo, por exemplo, tem um argumento central de que trilhões de
[57:16] argumento central de que trilhões de pessoas podem existir no futuro. Cada
[57:18] pessoas podem existir no futuro. Cada uma tem um valor moral igual a que tá no
[57:20] uma tem um valor moral igual a que tá no presente. Então, portanto, o bem-estar
[57:22] presente. Então, portanto, o bem-estar futuro é muito maior do que o que tá no
[57:23] futuro é muito maior do que o que tá no presente.
[57:26] presente. Consequência prática,
[57:28] Consequência prática, investir em riscos existenciais
[57:29] investir em riscos existenciais hipotéticos de longo prazo pode ser
[57:31] hipotéticos de longo prazo pode ser apresentado como moralmente superior
[57:35] apresentado como moralmente superior e mais interessante e importante do que
[57:37] e mais interessante e importante do que combater a pobreza ou a desigualdade,
[57:38] combater a pobreza ou a desigualdade, porque o máximo que eu vou conseguir
[57:40] porque o máximo que eu vou conseguir combater a pobreza é 1 bilhão de
[57:41] combater a pobreza é 1 bilhão de pessoas. Mas se eu investir no futuro,
[57:43] pessoas. Mas se eu investir no futuro, eu tenho muito mais gente. Essa é a
[57:45] eu tenho muito mais gente. Essa é a narrativa de vários bilionários
[57:48] narrativa de vários bilionários e vários movimentos que têm poder nos
[57:51] e vários movimentos que têm poder nos diferentes governos do mundo para evitar
[57:53] diferentes governos do mundo para evitar qualquer tipo de regulamentação e
[57:56] qualquer tipo de regulamentação e controle tecnológico. Então, é por isso
[57:59] controle tecnológico. Então, é por isso que eu tô falando para vocês que quando
[58:01] que eu tô falando para vocês que quando você pensa em inteligência artificial é
[58:03] você pensa em inteligência artificial é muito mais do que a primeira camada, tá?
[58:06] muito mais do que a primeira camada, tá? Eu demorei anos para chegar nessa visão.
[58:09] Eu demorei anos para chegar nessa visão. Como eu disse, quando eu comecei, eu
[58:10] Como eu disse, quando eu comecei, eu enxergava a camada técnica. Já achava
[58:12] enxergava a camada técnica. Já achava linda a camada técnica. E agora que eu
[58:15] linda a camada técnica. E agora que eu consigo enxergar um pouco mais que é
[58:16] consigo enxergar um pouco mais que é além da camada técnica, eu sinto que eu
[58:18] além da camada técnica, eu sinto que eu tenho um dever moral de trabalhar com
[58:21] tenho um dever moral de trabalhar com isso.
[58:26] E existem muitas críticas a a esse
[58:29] E existem muitas críticas a a esse extremo longtermismo, né? Esse essa
[58:31] extremo longtermismo, né? Esse essa questão de pensar só no futuro, ela
[58:34] questão de pensar só no futuro, ela minimiza a desigualdade atual.
[58:36] minimiza a desigualdade atual. E há interesse em minimizar a
[58:38] E há interesse em minimizar a desigualdade atual.
[58:41] desigualdade atual. Há interesse para continuar explorando o
[58:43] Há interesse para continuar explorando o mundo como ele é explorado. Há interesse
[58:45] mundo como ele é explorado. Há interesse para derrubar governos para se ter
[58:47] para derrubar governos para se ter acesso a minerais. Há interesse em se
[58:49] acesso a minerais. Há interesse em se escolher certos políticos que vão
[58:51] escolher certos políticos que vão permitir que você consiga acessar
[58:54] permitir que você consiga acessar minerais raros, terras raras a custo
[58:58] minerais raros, terras raras a custo zero ou mínimo.
[59:01] zero ou mínimo. Ela justifica essa corrida acelerada e
[59:03] Ela justifica essa corrida acelerada e sem leis.
[59:05] sem leis. da tecnologia e obviamente ela especula,
[59:09] da tecnologia e obviamente ela especula, ela prioriza a especulação ao invés da
[59:11] ela prioriza a especulação ao invés da realidade.
[59:14] realidade. E aí tem um livro que me abriu os olhos
[59:16] E aí tem um livro que me abriu os olhos mais ainda chamado More Everything
[59:19] mais ainda chamado More Everything Forever,
[59:21] Forever, mais para sempre
[59:25] mais para sempre do Adam Becker. Ele coloca esse técnico
[59:28] do Adam Becker. Ele coloca esse técnico utopianismo do Vale do Celício com sob
[59:31] utopianismo do Vale do Celício com sob um rigor metodológico científico. A tese
[59:34] um rigor metodológico científico. A tese central é que muitas visões mais
[59:36] central é que muitas visões mais influentes da IA e o futuro tecnológico
[59:38] influentes da IA e o futuro tecnológico se assemelham a narrativas quase
[59:42] se assemelham a narrativas quase religiosas.
[59:45] Gente, a hora que eu li isso aqui, eu
[59:47] Gente, a hora que eu li isso aqui, eu falei: "Tem todo sentido". E aí na
[59:50] falei: "Tem todo sentido". E aí na semana passada o Mark Kckelberg, que é
[59:53] semana passada o Mark Kckelberg, que é um dos maiores filósofos da da
[59:54] um dos maiores filósofos da da atualidade em tecnologia, ele lançou um
[59:57] atualidade em tecnologia, ele lançou um livro chamado AI Religion.
[01:00:02] >> [roncando]
[01:00:02] >> [roncando] >> tá tudo convergindo.
[01:00:05] >> tá tudo convergindo. E aí nós temos a narrativa desse mago
[01:00:08] E aí nós temos a narrativa desse mago tecnológico, [risadas]
[01:00:10] tecnológico, [risadas] que é a observação de que figuras
[01:00:13] que é a observação de que figuras influentes no ecossistema tecnológico
[01:00:15] influentes no ecossistema tecnológico prometem transformações numa escala
[01:00:17] prometem transformações numa escala civilizacional que funciona como mito de
[01:00:20] civilizacional que funciona como mito de fabricação tecnológica. Veja como fala
[01:00:24] fabricação tecnológica. Veja como fala o Elon Musk, o Mark Zuckerberg, o Sun
[01:00:27] o Elon Musk, o Mark Zuckerberg, o Sun Altman, esses caras das Big Tech, eles
[01:00:30] Altman, esses caras das Big Tech, eles falam como se fossem salvadores da
[01:00:32] falam como se fossem salvadores da humanidade, como se eles tivessem
[01:00:34] humanidade, como se eles tivessem direito a fazer qualquer decisão que
[01:00:35] direito a fazer qualquer decisão que eles quisessem.
[01:00:38] eles quisessem. Então eles falam da extensão radical da
[01:00:40] Então eles falam da extensão radical da vida, promessa de que a morte biológica
[01:00:42] vida, promessa de que a morte biológica se tornará obsoleta, da
[01:00:44] se tornará obsoleta, da superinteligência, previsão de que a Iá
[01:00:45] superinteligência, previsão de que a Iá superará toda a inteligência humana e
[01:00:47] superará toda a inteligência humana e transformará civilização da imortalidade
[01:00:49] transformará civilização da imortalidade digital, como naquele filme
[01:00:51] digital, como naquele filme Transcendence do Johnny Dep.
[01:00:57] Isso tem muito perigo.
[01:00:59] Isso tem muito perigo. Isso tem um perigo porque esse otimismo
[01:01:02] Isso tem um perigo porque esse otimismo sem crítica, transformado em ideologia
[01:01:05] sem crítica, transformado em ideologia emerge, traz muitos riscos concretos
[01:01:08] emerge, traz muitos riscos concretos para pluralidade,
[01:01:10] para pluralidade, bem-estar e democracia.
[01:01:13] bem-estar e democracia. por exemplo, ignorar as realidades
[01:01:15] por exemplo, ignorar as realidades sociais,
[01:01:18] sociais, as desigualdades sociais, as minorias,
[01:01:22] as desigualdades sociais, as minorias, racismo, a exclusão que deixa de ser
[01:01:25] racismo, a exclusão que deixa de ser tratado como deve ser tratado e passa a
[01:01:28] tratado como deve ser tratado e passa a ser uma questão técnica presente numa
[01:01:31] ser uma questão técnica presente numa função de otimização,
[01:01:33] função de otimização, uma visão utilitária,
[01:01:35] uma visão utilitária, leva a concentração de poder.
[01:01:38] leva a concentração de poder. Quando poucos atores privados definem a
[01:01:41] Quando poucos atores privados definem a trajetória tecnológica,
[01:01:43] trajetória tecnológica, a pluralidade democrática é
[01:01:44] a pluralidade democrática é enfraquecida, porque eles é que vão
[01:01:46] enfraquecida, porque eles é que vão apoiar os governos a serem escolhidos. O
[01:01:48] apoiar os governos a serem escolhidos. O povo vota, vota, mas vota em quem os
[01:01:51] povo vota, vota, mas vota em quem os milionários escolhem.
[01:01:54] milionários escolhem. e enfraquecimento, obviamente, da
[01:01:55] e enfraquecimento, obviamente, da democracia, o movimento que nós estamos
[01:01:57] democracia, o movimento que nós estamos vivendo no mundo. A democracia está sob
[01:02:00] vivendo no mundo. A democracia está sob ataque. Inclusive, recomendo para vocês,
[01:02:03] ataque. Inclusive, recomendo para vocês, já falei hoje no laboratório, recomendo
[01:02:05] já falei hoje no laboratório, recomendo para vocês assistirem um filme recente
[01:02:06] para vocês assistirem um filme recente que lançou no cinema chamado Mago do
[01:02:09] que lançou no cinema chamado Mago do Kremlin.
[01:02:11] Kremlin. Vocês vão ver como que nasce essa
[01:02:13] Vocês vão ver como que nasce essa questão de desinformação
[01:02:17] questão de desinformação eh vindo do da Rússia para o Ocidente
[01:02:21] eh vindo do da Rússia para o Ocidente num livro sensacional do Giuliano
[01:02:23] num livro sensacional do Giuliano Empoly, que é o mesmo que escreveu os
[01:02:25] Empoly, que é o mesmo que escreveu os engenheiros do caos.
[01:02:29] Então eu gostaria de encerrar essa essa
[01:02:31] Então eu gostaria de encerrar essa essa discussão com vocês mostrando que a
[01:02:33] discussão com vocês mostrando que a tecnologia não é o destino, ela não é
[01:02:35] tecnologia não é o destino, ela não é inevitável.
[01:02:36] inevitável. Nós temos instituições, agências
[01:02:38] Nós temos instituições, agências regulatórias, podemos atuar como grupos,
[01:02:41] regulatórias, podemos atuar como grupos, como universidade, como organismos
[01:02:43] como universidade, como organismos internacionais. Podemos levar isso ao
[01:02:45] internacionais. Podemos levar isso ao debate público para trazer a a
[01:02:48] debate público para trazer a a governança democrática em discussão,
[01:02:50] governança democrática em discussão, para que nós possamos discutir
[01:02:51] para que nós possamos discutir legislações e supervisão e participação
[01:02:54] legislações e supervisão e participação cidadã nesses mecanismos ligados à
[01:02:57] cidadã nesses mecanismos ligados à tecnologia.
[01:02:59] tecnologia. Nós precisamos rejeitar esse
[01:03:01] Nós precisamos rejeitar esse tecnolucionismo de que a o aquecimento
[01:03:03] tecnolucionismo de que a o aquecimento global basta desenvolver alguns
[01:03:04] global basta desenvolver alguns algoritmos e tecnologias que tá
[01:03:06] algoritmos e tecnologias que tá resolvido. Não, não tá.
[01:03:08] resolvido. Não, não tá. O aquecimento global é muito mais hoje
[01:03:10] O aquecimento global é muito mais hoje uma escolha política do que tecnológica.
[01:03:14] uma escolha política do que tecnológica. Problemas que requerem soluções
[01:03:16] Problemas que requerem soluções políticas, desigualdade de renda,
[01:03:17] políticas, desigualdade de renda, concentração de poder, acesso universal
[01:03:19] concentração de poder, acesso universal à saúde. São desafios de distribuição,
[01:03:21] à saúde. São desafios de distribuição, não desafio técnico.
[01:03:24] não desafio técnico. Problema que requerem coordenação
[01:03:26] Problema que requerem coordenação social, crise climática, pandemia,
[01:03:28] social, crise climática, pandemia, migração em massa, demanda cooperação
[01:03:30] migração em massa, demanda cooperação internacional, não um algoritmo.
[01:03:33] internacional, não um algoritmo. Problemas que requerem reforma
[01:03:34] Problemas que requerem reforma constitucional, institucional,
[01:03:36] constitucional, institucional, corrupção, erosão democrática, violação
[01:03:38] corrupção, erosão democrática, violação de direitos humanos, não é um algoritmo.
[01:03:43] Então, nós temos o desafio da
[01:03:44] Então, nós temos o desafio da governança, quem controla, quem se
[01:03:47] governança, quem controla, quem se beneficia, quem é responsável.
[01:03:50] beneficia, quem é responsável. Temos que participar de um caminho
[01:03:52] Temos que participar de um caminho responsável à frente, buscando o
[01:03:54] responsável à frente, buscando o alinhamento da inovação com valores
[01:03:56] alinhamento da inovação com valores sociais. Quem participa do processo
[01:03:59] sociais. Quem participa do processo trazendo mais pessoas, trazendo
[01:04:01] trazendo mais pessoas, trazendo representantes dos diferentes grupos.
[01:04:03] representantes dos diferentes grupos. fazendo uma distribuição equitativa de
[01:04:05] fazendo uma distribuição equitativa de benefícios.
[01:04:07] benefícios. Só isso vai permitir que a gente consiga
[01:04:09] Só isso vai permitir que a gente consiga florescimento humano. E aqui eu quis
[01:04:12] florescimento humano. E aqui eu quis trazer para vocês uma visão, por
[01:04:14] trazer para vocês uma visão, por exemplo, do Aristóteles,
[01:04:18] exemplo, do Aristóteles, que
[01:04:20] que Aristóteles dizia que o florescimento
[01:04:22] Aristóteles dizia que o florescimento humano, ele tem suas raízes na filosofia
[01:04:24] humano, ele tem suas raízes na filosofia clássica, que descreveu como eudaimônia,
[01:04:28] clássica, que descreveu como eudaimônia, uma vida de realização, dignidade e
[01:04:30] uma vida de realização, dignidade e propósito que vai além do mero prazer da
[01:04:32] propósito que vai além do mero prazer da satisfação imediata. [roncando]
[01:04:34] satisfação imediata. [roncando] Então, a visão aristotélica é que
[01:04:37] Então, a visão aristotélica é que não é simplesmente felicidade a
[01:04:39] não é simplesmente felicidade a realização plena da capacidade humana em
[01:04:41] realização plena da capacidade humana em uma vida vivida com virtude e propósito.
[01:04:43] uma vida vivida com virtude e propósito. Eu amônio é muito mais do que isso.
[01:04:45] Eu amônio é muito mais do que isso. Aprimoração contemporânea. Tecnologias
[01:04:47] Aprimoração contemporânea. Tecnologias que contribuem para o florescimento,
[01:04:49] que contribuem para o florescimento, expandem capacidades. Sim. Ampliam a
[01:04:52] expandem capacidades. Sim. Ampliam a autonomia? Sim. Promovem a condição para
[01:04:55] autonomia? Sim. Promovem a condição para a vida digna e significativa? Ainda não.
[01:04:59] a vida digna e significativa? Ainda não. Então esse deve ser o nosso critério
[01:05:01] Então esse deve ser o nosso critério para qualquer desenvolvimento em
[01:05:03] para qualquer desenvolvimento em tecnologia. como inteligência
[01:05:04] tecnologia. como inteligência artificial, como ela vai contribuir,
[01:05:05] artificial, como ela vai contribuir, para quem ela vai contribuir?
[01:05:09] para quem ela vai contribuir? Notem que nós podemos melhorar é muito
[01:05:11] Notem que nós podemos melhorar é muito diagnósticos,
[01:05:13] diagnósticos, ter muito mais crianças acessando a
[01:05:15] ter muito mais crianças acessando a informação, garantindo que a tecnologia
[01:05:17] informação, garantindo que a tecnologia chegue a lugares nunca antes possíveis,
[01:05:22] chegue a lugares nunca antes possíveis, afetar a educação diretamente com a
[01:05:24] afetar a educação diretamente com a aprendizagem personalizada. Eu me
[01:05:25] aprendizagem personalizada. Eu me preocupo muito com isso. Eu tento trazer
[01:05:27] preocupo muito com isso. Eu tento trazer paraas minhas disciplinas ah pensamentos
[01:05:29] paraas minhas disciplinas ah pensamentos de como ter a classe cada vez mais
[01:05:31] de como ter a classe cada vez mais engajada e discutindo e aprendendo os
[01:05:33] engajada e discutindo e aprendendo os conceitos de verdade. Ao em vez de ser
[01:05:34] conceitos de verdade. Ao em vez de ser simplesmente alguém que fica repetindo
[01:05:36] simplesmente alguém que fica repetindo um conhecimento eh [limpando a garganta]
[01:05:38] um conhecimento eh [limpando a garganta] acumulado.
[01:05:40] acumulado. Podemos avançar muito na predição de
[01:05:42] Podemos avançar muito na predição de doença, diagnóstico médico
[01:05:45] doença, diagnóstico médico ou quem sabe ajudar nessas problemas
[01:05:49] ou quem sabe ajudar nessas problemas difíceis e atuais do clima, da
[01:05:52] difíceis e atuais do clima, da acessibilidade, reconhecimento da fala,
[01:05:54] acessibilidade, reconhecimento da fala, fazer com que pessoas que perderam a
[01:05:56] fazer com que pessoas que perderam a fala ou têm dificuldade de falar tornem
[01:05:58] fala ou têm dificuldade de falar tornem a ganhar essa autonomia. Tradução em
[01:06:00] a ganhar essa autonomia. Tradução em tempo real, quem sabe a gente chegue
[01:06:02] tempo real, quem sabe a gente chegue aqui de fato naquela possibilidade de
[01:06:04] aqui de fato naquela possibilidade de conversar em diferentes línguas em tempo
[01:06:06] conversar em diferentes línguas em tempo real
[01:06:07] real e assistência visual.
[01:06:11] e assistência visual. Isso vai em múltiplas partes, né, na
[01:06:13] Isso vai em múltiplas partes, né, na descoberta científica,
[01:06:15] descoberta científica, uma ferramenta civilizacional, então,
[01:06:17] uma ferramenta civilizacional, então, como eu trouxe para vocês,
[01:06:20] como eu trouxe para vocês, ela só vai ser possível se nós tivermos
[01:06:21] ela só vai ser possível se nós tivermos então transparência, supervisão,
[01:06:24] então transparência, supervisão, estrutura ética e uma cooperação
[01:06:25] estrutura ética e uma cooperação internacional.
[01:06:29] E temos muitos papéis,
[01:06:31] E temos muitos papéis, independente das pessoas. Então aqui
[01:06:33] independente das pessoas. Então aqui temos muitos papéis. Por exemplo, os
[01:06:34] temos muitos papéis. Por exemplo, os cientistas podem ajudar na integração
[01:06:36] cientistas podem ajudar na integração das considerações éticas, na discussão
[01:06:38] das considerações éticas, na discussão de políticas públicas, no debate público
[01:06:41] de políticas públicas, no debate público ou numa coisa tão simples quanto
[01:06:43] ou numa coisa tão simples quanto apresentar uma palestra como essa aqui
[01:06:44] apresentar uma palestra como essa aqui hoje, que eu fico feliz de ter todos os
[01:06:46] hoje, que eu fico feliz de ter todos os assentos lotados, que é a primeira vez
[01:06:48] assentos lotados, que é a primeira vez que eu vejo, tem gente até em pé, né?
[01:06:51] que eu vejo, tem gente até em pé, né? Obrigado, Marcos. [risadas]
[01:06:55] E os cidadãos
[01:06:57] E os cidadãos pensando, precisamos pensar na
[01:06:58] pensando, precisamos pensar na participação de cada indivíduo.
[01:07:01] participação de cada indivíduo. Pensamos na alfabetização da IA. Durante
[01:07:04] Pensamos na alfabetização da IA. Durante muitos anos, o Brasil viveu e vive um
[01:07:07] muitos anos, o Brasil viveu e vive um problema da educação tradicional e agora
[01:07:09] problema da educação tradicional e agora já vem esse grande desafio tecnológico.
[01:07:13] já vem esse grande desafio tecnológico. Se nós não resolvemos a educação
[01:07:14] Se nós não resolvemos a educação clássica, como é que nós vamos resolver
[01:07:15] clássica, como é que nós vamos resolver agora a alfabetização tecnológica? Nós
[01:07:18] agora a alfabetização tecnológica? Nós tínhamos os chamados analfabetos, depois
[01:07:20] tínhamos os chamados analfabetos, depois tínhamos os analfabetos que não
[01:07:22] tínhamos os analfabetos que não conseguiam lei e entender, né? E agora
[01:07:26] conseguiam lei e entender, né? E agora os funcionais e agora temos os
[01:07:27] os funcionais e agora temos os tecnológicos.
[01:07:29] tecnológicos. Isso deve ser preocupação das eleições
[01:07:33] Isso deve ser preocupação das eleições e não se a gente vai libertar o pai da
[01:07:34] e não se a gente vai libertar o pai da cadeia.
[01:07:36] cadeia. É fato, gente.
[01:07:39] É fato, gente. Participação política. Pressionar
[01:07:40] Participação política. Pressionar representantes eleitos por legislação e
[01:07:42] representantes eleitos por legislação e supervisão adequada aos sistemas de A
[01:07:44] supervisão adequada aos sistemas de A que afetam a vida cotidiana.
[01:07:47] que afetam a vida cotidiana. Consumo consciente,
[01:07:50] Consumo consciente, vocês compram no dia a dia, realmente
[01:07:52] vocês compram no dia a dia, realmente vocês precisam?
[01:07:55] vocês precisam? Tudo que a gente compra, a gente
[01:07:56] Tudo que a gente compra, a gente realmente precisa. Pensem nisso.
[01:08:00] realmente precisa. Pensem nisso. Então, temos uma responsabilidade
[01:08:01] Então, temos uma responsabilidade compartilhada como pesquisadores,
[01:08:02] compartilhada como pesquisadores, instituições, formuladores de políticas,
[01:08:05] instituições, formuladores de políticas, cidadãos.
[01:08:08] cidadãos. Trazendo então essa perspectiva mais
[01:08:09] Trazendo então essa perspectiva mais ampla pra gente concluir, temos uma
[01:08:12] ampla pra gente concluir, temos uma responsabilidade para essa tecnologia.
[01:08:16] responsabilidade para essa tecnologia. Temos muitas escolhas morais coletivas.
[01:08:20] Temos muitas escolhas morais coletivas. Como dizia Carl Seigan, em 1990, a sonda
[01:08:24] Como dizia Carl Seigan, em 1990, a sonda Voyager One
[01:08:26] Voyager One voltou sua câmera para terra a pedido do
[01:08:29] voltou sua câmera para terra a pedido do astrônomo Cagan
[01:08:31] astrônomo Cagan e a imagem resultante mostrou o nosso
[01:08:33] e a imagem resultante mostrou o nosso planeta como um ponto diminuto de luz,
[01:08:35] planeta como um ponto diminuto de luz, suspenso em um raio de sol, mostrando a
[01:08:38] suspenso em um raio de sol, mostrando a vastidão do espaço.
[01:08:41] vastidão do espaço. Semana passada nós tivemos a repetição
[01:08:43] Semana passada nós tivemos a repetição dessa foto linda e histórica.
[01:08:48] dessa foto linda e histórica. Então, Calseiga nos convida, olhe
[01:08:49] Então, Calseiga nos convida, olhe novamente para esse ponto. É aqui,
[01:08:54] novamente para esse ponto. É aqui, é o lar.
[01:08:56] é o lar. Nele, eh, somos nós, né? Nele, todos os
[01:09:00] Nele, eh, somos nós, né? Nele, todos os que você ama, todos os que você conhece.
[01:09:06] Todo ser humano que já viveu, cada amor,
[01:09:09] Todo ser humano que já viveu, cada amor, cada criação, cada tragédia, cada
[01:09:12] cada criação, cada tragédia, cada triunfo da nossa espécie aconteceu nesse
[01:09:16] triunfo da nossa espécie aconteceu nesse ponto.
[01:09:17] ponto. Toda a civilização, toda a cultura, toda
[01:09:19] Toda a civilização, toda a cultura, toda a filosofia, toda ciência, toda arte,
[01:09:22] a filosofia, toda ciência, toda arte, toda a herança da humanidade está nesse
[01:09:24] toda a herança da humanidade está nesse ponto.
[01:09:27] ponto. toda a ideia, incluindo as ideias sobre
[01:09:28] toda a ideia, incluindo as ideias sobre a IA que hoje debatemos aqui e que
[01:09:31] a IA que hoje debatemos aqui e que moldarão o futuro, estão nesse ponto.
[01:09:38] [roncando]
[01:09:38] [roncando] E nesse ponto nós temos,
[01:09:42] E nesse ponto nós temos, para com esse ponto nós temos uma grande
[01:09:43] para com esse ponto nós temos uma grande responsabilidade. Não devemos pensar que
[01:09:45] responsabilidade. Não devemos pensar que vamos sair desse planeta para ir para
[01:09:47] vamos sair desse planeta para ir para outro e aí tá salvo. Não, não tá. Se
[01:09:50] outro e aí tá salvo. Não, não tá. Se nós, entre aspas, fodemos com um
[01:09:52] nós, entre aspas, fodemos com um planeta, por que que garante que nós não
[01:09:54] planeta, por que que garante que nós não vamos fazer o mesmo com outro?
[01:09:57] vamos fazer o mesmo com outro? É fato.
[01:10:00] É fato. Então não encarem aqui como
[01:10:04] Então não encarem aqui como simplesmente uma ferramenta, gente. A
[01:10:05] simplesmente uma ferramenta, gente. A lição, propósito geral, é política, ela
[01:10:09] lição, propósito geral, é política, ela tem implicações.
[01:10:11] tem implicações. O futuro, então, está aberto, a ação não
[01:10:14] O futuro, então, está aberto, a ação não está pré-determinada. Essa é uma
[01:10:16] está pré-determinada. Essa é uma mensagem de esperança minha que eu
[01:10:18] mensagem de esperança minha que eu queria trazer para vocês e de
[01:10:20] queria trazer para vocês e de responsabilidade. O fato é que o futuro
[01:10:23] responsabilidade. O fato é que o futuro aberto significa que nós temos escolhas
[01:10:25] aberto significa que nós temos escolhas que importam profundamente. Não é só
[01:10:27] que importam profundamente. Não é só escolher qual é o parâmetro do fine
[01:10:28] escolher qual é o parâmetro do fine tuning, tá?
[01:10:32] tuning, tá? Então, precisamos rejeitar o fatalismo
[01:10:33] Então, precisamos rejeitar o fatalismo tecnológico, a narrativa de mercado, que
[01:10:36] tecnológico, a narrativa de mercado, que o mercado sozinho resolve tudo, não
[01:10:38] o mercado sozinho resolve tudo, não resolve. Isso aqui já erramos uma vez,
[01:10:40] resolve. Isso aqui já erramos uma vez, já erramos duas vezes e não podemos
[01:10:42] já erramos duas vezes e não podemos errar de novo. Não tem autorregulação,
[01:10:46] errar de novo. Não tem autorregulação, precisa da participação política.
[01:10:48] precisa da participação política. Existem ciclos de hype, existem essas
[01:10:50] Existem ciclos de hype, existem essas visões bilionárias que tentam nos
[01:10:53] visões bilionárias que tentam nos impedir de regulamentar a tecnologia,
[01:10:56] impedir de regulamentar a tecnologia, mas ela, a tecnologia, a sociedade
[01:10:58] mas ela, a tecnologia, a sociedade precisa atuar diretamente, ativamente
[01:11:01] precisa atuar diretamente, ativamente nessa tecnologia para termos o que nós
[01:11:03] nessa tecnologia para termos o que nós precisamos. Precisamos então abraçar a
[01:11:06] precisamos. Precisamos então abraçar a nossa responsabilidade,
[01:11:08] nossa responsabilidade, buscando mais conhecimento, melhor
[01:11:10] buscando mais conhecimento, melhor saúde, instituições mais fortes e
[01:11:13] saúde, instituições mais fortes e oportunidades expandidas. Mensagem final
[01:11:15] oportunidades expandidas. Mensagem final para vocês.
[01:11:18] para vocês. Pode parecer tec, exagerado, mas para
[01:11:22] Pode parecer tec, exagerado, mas para preaturas tão pequenas como nós, a
[01:11:25] preaturas tão pequenas como nós, a vastidão só é suportável através do amor
[01:11:27] vastidão só é suportável através do amor quando a gente entender que nesse ponto
[01:11:29] quando a gente entender que nesse ponto azul todo mundo é igual. Obrigado.
[01:11:32] azul todo mundo é igual. Obrigado. [aplausos]
[01:11:44] Vamos lá. Podemos responder perguntas?
[01:11:46] Vamos lá. Podemos responder perguntas? Temos, sei lá, 15 minutos.
[01:11:50] Temos, sei lá, 15 minutos. Eu
[01:11:52] Eu tenho.
[01:11:53] tenho. >> Diga, Paul.
[01:11:59] >> Pode contando essa que você já fez
[01:12:02] >> Pode contando essa que você já fez [risadas]
[01:12:07] duas perguntas, então. Três, né?
[01:12:11] duas perguntas, então. Três, né? Eh, a primeira, eu vou falar sequência
[01:12:14] Eh, a primeira, eu vou falar sequência para não ficar falando muito tempo. A
[01:12:17] para não ficar falando muito tempo. A primeira que eu sempre me pergunto
[01:12:20] primeira que eu sempre me pergunto assim, né? Eh, quando eu entrei aqui num
[01:12:23] assim, né? Eh, quando eu entrei aqui num laboratório de, né, docode, eu tinha uma
[01:12:26] laboratório de, né, docode, eu tinha uma resistência absurda
[01:12:28] resistência absurda [limpando a garganta]
[01:12:29] [limpando a garganta] em usar a inteligência artificial,
[01:12:31] em usar a inteligência artificial, [risadas] usar no sentido, né, usuário,
[01:12:34] [risadas] usar no sentido, né, usuário, porque eu pensava, cara, eu vou ficar
[01:12:36] porque eu pensava, cara, eu vou ficar burra. Eu só pensava nisso, eu vou ficar
[01:12:39] burra. Eu só pensava nisso, eu vou ficar burra. vou ficar burra. E eu sempre tive
[01:12:42] burra. vou ficar burra. E eu sempre tive assim, eh, essa orgulho de ser criativa.
[01:12:46] assim, eh, essa orgulho de ser criativa. E aí quando eu vi algo que, pô, é
[01:12:49] E aí quando eu vi algo que, pô, é criativo também e faz coisas muito mais
[01:12:51] criativo também e faz coisas muito mais rápidas do que eu, eu me senti muito
[01:12:53] rápidas do que eu, eu me senti muito péssima. Bom, dito isso, eh, primeira
[01:12:57] péssima. Bom, dito isso, eh, primeira questão que eu vou perguntar a você é
[01:13:00] questão que eu vou perguntar a você é como é que o que eu me pergunto sempre,
[01:13:03] como é que o que eu me pergunto sempre, como é que a gente vai desenvolver
[01:13:05] como é que a gente vai desenvolver a nossa inteligência de carne? Tipo
[01:13:08] a nossa inteligência de carne? Tipo assim,
[01:13:09] assim, esse ser humano que tá em frente a essa,
[01:13:13] esse ser humano que tá em frente a essa, né, a Iá, que é uma inteligência cílica,
[01:13:17] né, a Iá, que é uma inteligência cílica, né,
[01:13:20] né, o o como é que como o qual é o como é
[01:13:22] o o como é que como o qual é o como é que como é que eu preparo esse porque
[01:13:24] que como é que eu preparo esse porque assim, a gente fala de criança,
[01:13:26] assim, a gente fala de criança, obviamente, né? As crianças, eu também
[01:13:28] obviamente, né? As crianças, eu também penso muito nisso, na educação, mas a
[01:13:31] penso muito nisso, na educação, mas a gente também, porque a gente não para de
[01:13:33] gente também, porque a gente não para de aprender, né? Não é porque eu tô, né,
[01:13:35] aprender, né? Não é porque eu tô, né, mais velha que eu não aprendo. Eu tô
[01:13:36] mais velha que eu não aprendo. Eu tô sempre aprendendo. Só que é um aprender
[01:13:38] sempre aprendendo. Só que é um aprender diferente. E aí eu fico pensando, tá,
[01:13:41] diferente. E aí eu fico pensando, tá, como é que minha cabeça de carne, eh,
[01:13:44] como é que minha cabeça de carne, eh, como é que eu vou preparar minha cabeça
[01:13:45] como é que eu vou preparar minha cabeça de carne para para isso? Não sei se é a
[01:13:47] de carne para para isso? Não sei se é a primeira pergunta. E a segunda pergunta
[01:13:49] primeira pergunta. E a segunda pergunta [limpando a garganta]
[01:13:51] [limpando a garganta] é provocativa também, tá? Você botou aí
[01:13:54] é provocativa também, tá? Você botou aí na em um dos slides, você falou assim, o
[01:13:57] na em um dos slides, você falou assim, o ponto forte da cognição humana.
[01:14:01] ponto forte da cognição humana. E aí num cenário lindo, ah, ética, não
[01:14:05] E aí num cenário lindo, ah, ética, não sei o quê, eu olhei aquilo, eu falei:
[01:14:07] sei o quê, eu olhei aquilo, eu falei: "Gente, nem parece que ele tá falando do
[01:14:09] "Gente, nem parece que ele tá falando do mundo que eu vivo". [risadas] Entendeu?
[01:14:12] mundo que eu vivo". [risadas] Entendeu? Aonde que o anda su anda? Porque não é o
[01:14:13] Aonde que o anda su anda? Porque não é o mesmo lugar que eu vivo.
[01:14:16] mesmo lugar que eu vivo. Ética,
[01:14:18] Ética, justiça.
[01:14:19] justiça. >> Sim.
[01:14:20] >> Sim. >> O mundo não é nada disso, Anderson.
[01:14:22] >> O mundo não é nada disso, Anderson. >> É,
[01:14:23] >> É, >> entendeu? Não, não é. a gente cria
[01:14:25] >> entendeu? Não, não é. a gente cria algumas regrinhas para achar que ético,
[01:14:28] algumas regrinhas para achar que ético, achar que é justo, achar que é isso. Na
[01:14:30] achar que é justo, achar que é isso. Na real, o mundo não é nada disso,
[01:14:33] real, o mundo não é nada disso, entendeu? Não é nada disso. Então, a
[01:14:35] entendeu? Não é nada disso. Então, a pergunta que eu faço a você é porque
[01:14:37] pergunta que eu faço a você é porque assim, quanto mais eu penso, mais eu que
[01:14:39] assim, quanto mais eu penso, mais eu que eu vejo que o problema tá realmente no
[01:14:41] eu vejo que o problema tá realmente no sistema. Se nós tivéssemos a
[01:14:44] sistema. Se nós tivéssemos a inteligência artificial numa sociedade
[01:14:49] inteligência artificial numa sociedade coletiv que que era porque o início da
[01:14:51] coletiv que que era porque o início da humanidade foi no coletivo, entendeu? Aí
[01:14:55] humanidade foi no coletivo, entendeu? Aí o negócio descambou de um jeito, não tô
[01:14:58] o negócio descambou de um jeito, não tô fazendo crítica, tá? Eu só tô pensando,
[01:15:01] fazendo crítica, tá? Eu só tô pensando, [risadas] então, enfim. Eh, né? Então,
[01:15:04] [risadas] então, enfim. Eh, né? Então, mas aí é que tá. E [limpando a garganta]
[01:15:05] mas aí é que tá. E [limpando a garganta] se essa se essa isso aí a inteligência
[01:15:08] se essa se essa isso aí a inteligência artificial surgisse na época
[01:15:12] artificial surgisse na época eh que a no início da humanidade,
[01:15:14] eh que a no início da humanidade, digamos assim, no coletivo, em que é
[01:15:16] digamos assim, no coletivo, em que é isso, a colaboração, a justiça, a ética
[01:15:20] isso, a colaboração, a justiça, a ética reina, não teríamos problema. A questão
[01:15:23] reina, não teríamos problema. A questão é que a gente criou um negócio muito
[01:15:26] é que a gente criou um negócio muito absurdo que tá ultrapassando as nossas
[01:15:28] absurdo que tá ultrapassando as nossas capacidades
[01:15:30] capacidades em uma sociedade que não tem
[01:15:32] em uma sociedade que não tem consciência.
[01:15:33] consciência. É, esse é o ponto. Então, é, eh, a
[01:15:36] É, esse é o ponto. Então, é, eh, a pergunta era sobre isso.
[01:15:38] pergunta era sobre isso. >> Muito bom. Bom,
[01:15:39] >> Muito bom. Bom, >> obrigado. Eh, primeira coisa, como que a
[01:15:42] >> obrigado. Eh, primeira coisa, como que a gente pode desenvolver
[01:15:43] gente pode desenvolver o nosso nossa inteligência natural,
[01:15:46] o nosso nossa inteligência natural, digamos assim, né? É uma pergunta super
[01:15:48] digamos assim, né? É uma pergunta super difícil. Ah, cada um tem seu caminho,
[01:15:52] difícil. Ah, cada um tem seu caminho, né? Eu diria que existem algumas dicas
[01:15:54] né? Eu diria que existem algumas dicas que a gente pode dar de forma geral e
[01:15:56] que a gente pode dar de forma geral e existem aquelas questões que vai
[01:15:57] existem aquelas questões que vai depender de cada uma das pessoas. Dicas
[01:15:59] depender de cada uma das pessoas. Dicas gerais, por exemplo, eu acho que o que
[01:16:02] gerais, por exemplo, eu acho que o que nos diferencia é o pensamento crítico e
[01:16:04] nos diferencia é o pensamento crítico e o pensamento empático, a ação empática.
[01:16:08] o pensamento empático, a ação empática. Como é que você desenvolve isso? Se
[01:16:10] Como é que você desenvolve isso? Se colocando em situações as mais
[01:16:11] colocando em situações as mais diferentes possíveis. A maneira mais
[01:16:13] diferentes possíveis. A maneira mais barata de se colocar em situações mais
[01:16:15] barata de se colocar em situações mais diferentes possíveis é interagir com
[01:16:16] diferentes possíveis é interagir com pessoas e ler.
[01:16:19] pessoas e ler. Então eu acho que quanto mais você lê,
[01:16:21] Então eu acho que quanto mais você lê, quanto mais você aprende, quanto mais
[01:16:22] quanto mais você aprende, quanto mais você interage com diferentes pessoas,
[01:16:23] você interage com diferentes pessoas, com pessoas que são diferentes de você,
[01:16:25] com pessoas que são diferentes de você, que pensam diferente de você, vai fazer
[01:16:27] que pensam diferente de você, vai fazer com que você consiga desenvolver esse
[01:16:29] com que você consiga desenvolver esse pensamento crítico, esse pensamento
[01:16:31] pensamento crítico, esse pensamento empático, entender um pouco melhor o
[01:16:33] empático, entender um pouco melhor o mundo.
[01:16:34] mundo. Ah, e aí depende, por exemplo, eu
[01:16:39] Ah, e aí depende, por exemplo, eu pratico algo que me ajuda a viver nesse
[01:16:41] pratico algo que me ajuda a viver nesse mundo muito bem. Eu eu pratico
[01:16:43] mundo muito bem. Eu eu pratico meditação, eu me conheço, eu tento me
[01:16:46] meditação, eu me conheço, eu tento me conhecer cada vez mais e isso me
[01:16:47] conhecer cada vez mais e isso me desenvolve, tá? É um processo contínuo e
[01:16:51] desenvolve, tá? É um processo contínuo e não tem um ponto de chegada.
[01:16:53] não tem um ponto de chegada. Ah, da mesma forma, faço yoga também, é
[01:16:56] Ah, da mesma forma, faço yoga também, é a mesma coisa, é um desenvolvimento
[01:16:57] a mesma coisa, é um desenvolvimento contínuo, não tem um ponto de chegada.
[01:17:00] contínuo, não tem um ponto de chegada. Ah, mas para outras pessoas, eh, elas
[01:17:02] Ah, mas para outras pessoas, eh, elas conseguem ter o mesmo tipo de
[01:17:04] conseguem ter o mesmo tipo de crescimento, por exemplo, eh, a partir
[01:17:07] crescimento, por exemplo, eh, a partir da prática de esportes.
[01:17:09] da prática de esportes. Eh, aí depende, mas eu acho que a sua
[01:17:12] Eh, aí depende, mas eu acho que a sua pergunta é muito pertinente, porque é o
[01:17:14] pergunta é muito pertinente, porque é o que a gente pensa para as gerações
[01:17:15] que a gente pensa para as gerações futuras. Como é que eu vou ensinar meus
[01:17:17] futuras. Como é que eu vou ensinar meus filhos, né, a a ser mais consciente,
[01:17:21] filhos, né, a a ser mais consciente, crítico e ter mais relevância nesse
[01:17:23] crítico e ter mais relevância nesse mundo? Eu acho que a gente tá numa época
[01:17:24] mundo? Eu acho que a gente tá numa época que, embora haja uma diminuição, uma
[01:17:28] que, embora haja uma diminuição, uma tentativa de diminuição da importância
[01:17:30] tentativa de diminuição da importância do estudo, eu acho que o estudo hoje é
[01:17:33] do estudo, eu acho que o estudo hoje é mais importante do que sempre foi,
[01:17:36] mais importante do que sempre foi, porque se você cair nessa narrativa de
[01:17:38] porque se você cair nessa narrativa de tiktokers de que estudar não é
[01:17:41] tiktokers de que estudar não é necessário, você será irrelevante.
[01:17:44] necessário, você será irrelevante. Isso é fato, tá?
[01:17:47] Isso é fato, tá? a sua pergunta sobre seu, você já falou
[01:17:51] a sua pergunta sobre seu, você já falou isso para mim algumas vezes, você me
[01:17:52] isso para mim algumas vezes, você me acha muito otimista com a vida, né? Bom,
[01:17:54] acha muito otimista com a vida, né? Bom, [roncando] talvez seja a minha visão
[01:17:56] [roncando] talvez seja a minha visão budista, não sei, mas eu eu acredito na
[01:17:59] budista, não sei, mas eu eu acredito na humanidade. Eu sei que existem muitas
[01:18:01] humanidade. Eu sei que existem muitas coisas feias e muito ruins. Eh, mas
[01:18:05] coisas feias e muito ruins. Eh, mas quando a gente compara com o que nós
[01:18:06] quando a gente compara com o que nós tínhamos de sociedade 200 anos atrás, é
[01:18:09] tínhamos de sociedade 200 anos atrás, é impressionante como a gente tem uma
[01:18:10] impressionante como a gente tem uma sociedade mais evoluída. Se a gente
[01:18:12] sociedade mais evoluída. Se a gente comparar com esse mundo que você colocou
[01:18:14] comparar com esse mundo que você colocou lá dos primórdios, de caçadores,
[01:18:16] lá dos primórdios, de caçadores, coletores, você tem uma visão idealizada
[01:18:19] coletores, você tem uma visão idealizada lá, Rousseau, de que se nós formos
[01:18:22] lá, Rousseau, de que se nós formos selvagens, vamos ser mais naturais e
[01:18:25] selvagens, vamos ser mais naturais e vamos ter a beleza no coração. Não é
[01:18:27] vamos ter a beleza no coração. Não é verdade? Não é verdade isso. A gente tem
[01:18:31] verdade? Não é verdade isso. A gente tem poucos indícios de que essas sociedades
[01:18:35] poucos indícios de que essas sociedades antigas eram muito mais justas do que a
[01:18:38] antigas eram muito mais justas do que a nossa. Nós temos mesmo na América, nós
[01:18:41] nossa. Nós temos mesmo na América, nós tivemos inúmeras sociedades que se
[01:18:43] tivemos inúmeras sociedades que se comiam.
[01:18:46] comiam. Eles se comiam carne humana. Hoje a
[01:18:49] Eles se comiam carne humana. Hoje a gente não come mais. Isso é uma grande
[01:18:51] gente não come mais. Isso é uma grande evolução enquanto sociedade. Então temos
[01:18:52] evolução enquanto sociedade. Então temos problemas de preconceito, vieses,
[01:18:55] problemas de preconceito, vieses, machismo, machosfera, pílula azul, monte
[01:18:59] machismo, machosfera, pílula azul, monte de coisa temos.
[01:19:01] de coisa temos. E justamente porque nós estamos
[01:19:02] E justamente porque nós estamos discutindo isso, eu acho que nós temos
[01:19:05] discutindo isso, eu acho que nós temos chance de um futuro melhor, porque se
[01:19:07] chance de um futuro melhor, porque se isso tivesse debaixo do tapete, aí sim o
[01:19:09] isso tivesse debaixo do tapete, aí sim o futuro seria pior. Então, eh, pode ser
[01:19:12] futuro seria pior. Então, eh, pode ser uma visão otimista, mas eu costumo
[01:19:14] uma visão otimista, mas eu costumo chamar que ela é um pouco realista de
[01:19:17] chamar que ela é um pouco realista de que se a gente tá colocando isso na mesa
[01:19:19] que se a gente tá colocando isso na mesa e discutindo agora, porque a gente tem
[01:19:21] e discutindo agora, porque a gente tem chance de mudar.
[01:19:23] chance de mudar. Próximo.
[01:19:28] Eh, muito obrigado primeiro pela
[01:19:31] Eh, muito obrigado primeiro pela palestra, né? Eu acho que eh nunca tive
[01:19:35] palestra, né? Eu acho que eh nunca tive a oportunidade de ver dessa forma
[01:19:36] a oportunidade de ver dessa forma inteligência artificial. Eh, de certa
[01:19:38] inteligência artificial. Eh, de certa forma isso eh mudou a minha visão de de
[01:19:42] forma isso eh mudou a minha visão de de mundo, principalmente sobre a como a
[01:19:46] mundo, principalmente sobre a como a gente pode evoluir, né?
[01:19:50] Mas ao mesmo tempo a minha pergunta é no
[01:19:52] Mas ao mesmo tempo a minha pergunta é no sentido de que, tipo, quando eu entrei
[01:19:55] sentido de que, tipo, quando eu entrei na faculdade, acho que quando a gente
[01:19:56] na faculdade, acho que quando a gente entra na faculdade, a gente tá buscando
[01:19:59] entra na faculdade, a gente tá buscando ã conhecimento e a gente vai trocar esse
[01:20:01] ã conhecimento e a gente vai trocar esse conhecimento por dinheiro, porque
[01:20:03] conhecimento por dinheiro, porque basicamente a gente tá garantindo que
[01:20:05] basicamente a gente tá garantindo que esse conhecimento que a gente tem
[01:20:06] esse conhecimento que a gente tem prático eh não é tão simples de ser
[01:20:10] prático eh não é tão simples de ser encontrado, por isso que ele tem valor.
[01:20:13] encontrado, por isso que ele tem valor. E em contrapartida, né? Então, quando
[01:20:16] E em contrapartida, né? Então, quando foi no terceiro ano, do segundo pro
[01:20:19] foi no terceiro ano, do segundo pro terceiro ano, eu consegui um trabalho eh
[01:20:22] terceiro ano, eu consegui um trabalho eh de programação.
[01:20:24] de programação. E eu sei que o meu conhecimento que eu
[01:20:26] E eu sei que o meu conhecimento que eu tava vendendo aquele no começo, hoje não
[01:20:29] tava vendendo aquele no começo, hoje não tem mais valor nenhum porque a gente
[01:20:32] tem mais valor nenhum porque a gente consegue fazer a o front end muito mais
[01:20:35] consegue fazer a o front end muito mais facilmente. A gente vai aprendendo
[01:20:38] facilmente. A gente vai aprendendo outras coisas. E hoje, tipo, hoje pela
[01:20:42] outras coisas. E hoje, tipo, hoje pela manhã, eu coloquei um projeto no agente
[01:20:44] manhã, eu coloquei um projeto no agente de A lá e eu pedi para ele fazer
[01:20:46] de A lá e eu pedi para ele fazer arquitetura e ele fez arquitetura
[01:20:47] arquitetura e ele fez arquitetura perfeita. E aí, tipo, eu fiquei até com
[01:20:50] perfeita. E aí, tipo, eu fiquei até com vergonha daquilo que eu tava propondo.
[01:20:52] vergonha daquilo que eu tava propondo. [risadas]
[01:20:53] [risadas] Então, eu fiz alguns ajustes só, mas eu
[01:20:56] Então, eu fiz alguns ajustes só, mas eu senti que o meu conhecimento não tem
[01:20:58] senti que o meu conhecimento não tem mais valor nesse sentido, que a qualquer
[01:21:01] mais valor nesse sentido, que a qualquer momento o que eu tinha construído não tá
[01:21:05] momento o que eu tinha construído não tá valendo nada hoje. Então, a minha
[01:21:08] valendo nada hoje. Então, a minha pergunta é, sabendo de ou tendo uma
[01:21:12] pergunta é, sabendo de ou tendo uma ideia de para onde a IA ela realmente tá
[01:21:15] ideia de para onde a IA ela realmente tá seguindo, o que que eu posso adquirir de
[01:21:18] seguindo, o que que eu posso adquirir de conhecimento que realmente seja valioso?
[01:21:22] conhecimento que realmente seja valioso? >> Boa. Primeira coisa, essa pergunta me
[01:21:25] >> Boa. Primeira coisa, essa pergunta me fizeram também recentemente,
[01:21:28] fizeram também recentemente, eh, onde você pode ser mais diferencial?
[01:21:32] eh, onde você pode ser mais diferencial? Com certeza não em algo que é repetível.
[01:21:36] Com certeza não em algo que é repetível. Tá? E por que que a Iá tá fazendo
[01:21:38] Tá? E por que que a Iá tá fazendo sucesso, por exemplo, o exemplo que você
[01:21:40] sucesso, por exemplo, o exemplo que você deu em desenvolvimento de código? Porque
[01:21:42] deu em desenvolvimento de código? Porque queira você ou não, por mais que a gente
[01:21:44] queira você ou não, por mais que a gente transforme isso em algo místico,
[01:21:47] transforme isso em algo místico, historicamente desenvolvimento de código
[01:21:49] historicamente desenvolvimento de código era pelo menos 80% repetição.
[01:21:52] era pelo menos 80% repetição. Era a diferença é que você fazia Google
[01:21:55] Era a diferença é que você fazia Google ou você ia no stack overflow ou você ia
[01:21:57] ou você ia no stack overflow ou você ia no GTHub, mas era repetição. E por que
[01:21:59] no GTHub, mas era repetição. E por que que a tá fazendo muito sucesso aqui?
[01:22:01] que a tá fazendo muito sucesso aqui? Porque ela viu a partir de zilhões de
[01:22:03] Porque ela viu a partir de zilhões de linha de código que era possível
[01:22:04] linha de código que era possível replicar essa repetição. Beleza?
[01:22:07] replicar essa repetição. Beleza? Então não fique assustado que ela tá
[01:22:09] Então não fique assustado que ela tá desenvolvendo o código. Muito bem. Ótimo
[01:22:11] desenvolvendo o código. Muito bem. Ótimo que ela tá fazendo essa esse
[01:22:12] que ela tá fazendo essa esse desenvolvimento do código porque garante
[01:22:14] desenvolvimento do código porque garante que você possa pensar outras coisas. O
[01:22:16] que você possa pensar outras coisas. O quê?
[01:22:17] quê? Aí você tem que ter a sua criatividade,
[01:22:20] Aí você tem que ter a sua criatividade, porque a sua criatividade agora ela
[01:22:21] porque a sua criatividade agora ela aumenta de capacidade, porque agora o
[01:22:23] aumenta de capacidade, porque agora o desenvolvimento do código paraa sua
[01:22:24] desenvolvimento do código paraa sua capacidade não é limitado.
[01:22:28] capacidade não é limitado. Você não precisa perder tempo agora para
[01:22:30] Você não precisa perder tempo agora para trazer aquela sua ideia pra realidade. O
[01:22:33] trazer aquela sua ideia pra realidade. O seu tempo tem que ser agora em como
[01:22:35] seu tempo tem que ser agora em como criar algo novo, como editar o que é
[01:22:38] criar algo novo, como editar o que é criado, como fazer aquilo que é criado,
[01:22:41] criado, como fazer aquilo que é criado, gerar valor. Isso aí não vai fazer para
[01:22:42] gerar valor. Isso aí não vai fazer para você. Mas uma vez que você tiver a sua
[01:22:44] você. Mas uma vez que você tiver a sua ideia e você começar a interagir
[01:22:47] ideia e você começar a interagir com um agente desse, por exemplo, você
[01:22:50] com um agente desse, por exemplo, você pode lapidar a sua ideia e realmente
[01:22:52] pode lapidar a sua ideia e realmente trazer algo à vida muito mais
[01:22:54] trazer algo à vida muito mais rapidamente, tá? Então assim, é óbvio
[01:22:57] rapidamente, tá? Então assim, é óbvio que qualquer pessoa que entra na
[01:22:58] que qualquer pessoa que entra na computação hoje fala: "Professor, meu
[01:23:00] computação hoje fala: "Professor, meu sonho é ser programador". falar: "Não,
[01:23:02] sonho é ser programador". falar: "Não, meu amigo, pelo amor de Deus, não seja
[01:23:04] meu amigo, pelo amor de Deus, não seja programador, porque o programador já tá
[01:23:06] programador, porque o programador já tá resolvido." Você tem que ser algo muito
[01:23:11] resolvido." Você tem que ser algo muito diferente de um programador básico. Você
[01:23:12] diferente de um programador básico. Você tem que ser algo, uma pessoa que lida
[01:23:14] tem que ser algo, uma pessoa que lida criticamente para sua e aí tem novas
[01:23:17] criticamente para sua e aí tem novas profissões saindo, tem pessoas que fazem
[01:23:20] profissões saindo, tem pessoas que fazem auditoria de código, verificação de
[01:23:23] auditoria de código, verificação de cybersegurança,
[01:23:24] cybersegurança, eh auditoria de justiça algorítmica.
[01:23:27] eh auditoria de justiça algorítmica. Tudo isso são novas profissões que estão
[01:23:29] Tudo isso são novas profissões que estão nascendo justamente porque a partir do
[01:23:31] nascendo justamente porque a partir do momento que você tem a automação do
[01:23:32] momento que você tem a automação do processo de geração de código, todos os
[01:23:34] processo de geração de código, todos os outros problemas crescem junto. Os
[01:23:36] outros problemas crescem junto. Os buracos de código, as falhas de
[01:23:38] buracos de código, as falhas de cbersegurança, a injustiça algorítmica,
[01:23:41] cbersegurança, a injustiça algorítmica, se você usou dados não eh curados para
[01:23:44] se você usou dados não eh curados para fazer eh esse desenvolvimento. Então,
[01:23:46] fazer eh esse desenvolvimento. Então, assim, minha sugestão, não se assuste.
[01:23:50] assim, minha sugestão, não se assuste. [roncando] É um momento que dá que é
[01:23:52] [roncando] É um momento que dá que é importante você pensar em como fazer a
[01:23:53] importante você pensar em como fazer a diferença. fazer a diferença aquilo que
[01:23:55] diferença. fazer a diferença aquilo que eu falei, é pensar fora da caixa, é
[01:23:58] eu falei, é pensar fora da caixa, é exercitar a sua capacidade de
[01:23:59] exercitar a sua capacidade de criatividade, de trabalhar em grupo
[01:24:02] criatividade, de trabalhar em grupo [limpando a garganta] coletivo. Isso é
[01:24:03] [limpando a garganta] coletivo. Isso é que eu acho que vai fazer diferença. As
[01:24:05] que eu acho que vai fazer diferença. As tarefas repetitivas, essas sim vão ser
[01:24:08] tarefas repetitivas, essas sim vão ser automatizadas,
[01:24:10] automatizadas, >> certo? Mas então eu deveria estudar o
[01:24:13] >> certo? Mas então eu deveria estudar o que assim, exatamente? [risadas]
[01:24:15] que assim, exatamente? [risadas] >> Adoraria,
[01:24:17] >> Adoraria, adoraria ter a resposta para você, mas
[01:24:20] adoraria ter a resposta para você, mas como você desenvolve a criatividade?
[01:24:22] como você desenvolve a criatividade? Como eu disse, isso funciona diferente
[01:24:25] Como eu disse, isso funciona diferente para pessoas diferentes. Vou te dar um
[01:24:27] para pessoas diferentes. Vou te dar um exemplo meu. Para mim
[01:24:30] exemplo meu. Para mim foi um momento definidor para mim na
[01:24:33] foi um momento definidor para mim na questão de criatividade, como lidar com
[01:24:35] questão de criatividade, como lidar com os meus alunos, como ter ideias fora da
[01:24:37] os meus alunos, como ter ideias fora da caixa para desenvolver pesquisa. Quando
[01:24:38] caixa para desenvolver pesquisa. Quando eu fiz história da arte, tem nada a ver
[01:24:41] eu fiz história da arte, tem nada a ver com votação, eu fiz durante a pandemia.
[01:24:44] com votação, eu fiz durante a pandemia. Isso me faz enxergar as coisas de
[01:24:45] Isso me faz enxergar as coisas de maneira diferente. Então, como é que
[01:24:46] maneira diferente. Então, como é que você, o que que você vai estudar? Eu não
[01:24:47] você, o que que você vai estudar? Eu não tô falando para você estudar história da
[01:24:48] tô falando para você estudar história da arte. Eu tô falando [risadas] para você
[01:24:50] arte. Eu tô falando [risadas] para você pensar coisas que te fazem pensar
[01:24:52] pensar coisas que te fazem pensar diferente. Ah, para você pode ser
[01:24:55] diferente. Ah, para você pode ser praticar karatê, por exemplo, não
[01:24:56] praticar karatê, por exemplo, não importa. Pode ser caminhar. Tira,
[01:24:58] importa. Pode ser caminhar. Tira, caminha na natureza. Isso já é provado.
[01:25:00] caminha na natureza. Isso já é provado. Caminhar na natureza uma hora por dia
[01:25:02] Caminhar na natureza uma hora por dia ajuda você a pensar coisas diferente, a
[01:25:04] ajuda você a pensar coisas diferente, a ligar pontos. Então você tem que tentar,
[01:25:08] ligar pontos. Então você tem que tentar, eu não tenho a resposta, mas é você
[01:25:11] eu não tenho a resposta, mas é você tentar se conhecer.
[01:25:13] tentar se conhecer. E se conhecer, pode ser via meditação,
[01:25:15] E se conhecer, pode ser via meditação, pode ser viaga, pode ser via budismo,
[01:25:17] pode ser viaga, pode ser via budismo, pode ser via catolicismo, mas é parar
[01:25:20] pode ser via catolicismo, mas é parar desligar do mundo, desligar as
[01:25:22] desligar do mundo, desligar as notificações do celular, pensar meia
[01:25:24] notificações do celular, pensar meia hora, uma hora em você. Isso ajuda a
[01:25:27] hora, uma hora em você. Isso ajuda a gente a crescer.
[01:25:30] gente a crescer. E arquitetura que aí você não precisou
[01:25:33] E arquitetura que aí você não precisou de seu conhecimento técnico, tô que foi
[01:25:35] de seu conhecimento técnico, tô que foi uma arquitetura boa ou chegar naquele
[01:25:37] uma arquitetura boa ou chegar naquele [roncando]
[01:25:39] [roncando] com certeza. Aí, ó, o seu valor tá ali.
[01:25:41] com certeza. Aí, ó, o seu valor tá ali. Ela, você acha que ela fez sozinha, mas
[01:25:43] Ela, você acha que ela fez sozinha, mas não teve a sua interação.
[01:25:49] >> Tem uma pergunta lá e perguntas no
[01:25:51] >> Tem uma pergunta lá e perguntas no YouTube. Lá lá primeiro
[01:25:53] YouTube. Lá lá primeiro >> tem uma proponente uma perguntações
[01:25:58] >> tem uma proponente uma perguntações aíos companheiros. Eu gosto muito de
[01:26:01] aíos companheiros. Eu gosto muito de pensar em poes, né? Então foi esse esse
[01:26:07] pensar em poes, né? Então foi esse esse espírito humano de criar a partir dos
[01:26:11] espírito humano de criar a partir dos sentimentos, [roncando] né, e dessa
[01:26:14] sentimentos, [roncando] né, e dessa experiência, né? E isso é uma uma
[01:26:17] experiência, né? E isso é uma uma questão que a não vai ser presente, né?
[01:26:21] questão que a não vai ser presente, né? Como
[01:26:23] Como >> poés,
[01:26:24] >> poés, >> poés é você usar sua experiência de
[01:26:26] >> poés é você usar sua experiência de vida, a sua forma como você se insere no
[01:26:28] vida, a sua forma como você se insere no mundo para criar. A consequência direta
[01:26:31] mundo para criar. A consequência direta do que ele tá falando é quanto mais
[01:26:32] do que ele tá falando é quanto mais experiências de vida você tiver, mais
[01:26:34] experiências de vida você tiver, mais criativo você será.
[01:26:35] criativo você será. >> É, exatamente. Então, eu gosto muito de
[01:26:38] >> É, exatamente. Então, eu gosto muito de pensar para essa ponência e atividades
[01:26:41] pensar para essa ponência e atividades mesmo, tipo criatividade,
[01:26:44] mesmo, tipo criatividade, eh, comunicação, cooperação, que acho
[01:26:47] eh, comunicação, cooperação, que acho que uma das mais importantes pensamento
[01:26:49] que uma das mais importantes pensamento crítico, né? Eh, isso é o que a gente
[01:26:53] crítico, né? Eh, isso é o que a gente deveria estar projetando para eh
[01:26:57] deveria estar projetando para eh precisamente inovar. Inovar em quê?
[01:26:59] precisamente inovar. Inovar em quê? todas essas tecnologias brandas, como
[01:27:03] todas essas tecnologias brandas, como duras, a arte uma tecnologia, a música
[01:27:06] duras, a arte uma tecnologia, a música uma tecnologia. Então a gente às vezes
[01:27:09] uma tecnologia. Então a gente às vezes se perdeu já o norte de de de que é uma
[01:27:12] se perdeu já o norte de de de que é uma tecnologia, né? Então [risadas]
[01:27:15] tecnologia, né? Então [risadas] eh é importante a gente recuperar esse
[01:27:18] eh é importante a gente recuperar esse esse esse espaço e hoje por hoje eu acho
[01:27:21] esse esse espaço e hoje por hoje eu acho que é muito importante. Aí eu agora
[01:27:24] que é muito importante. Aí eu agora estou num doutorado, né? Eu gosto muito
[01:27:26] estou num doutorado, né? Eu gosto muito de de como ele é abreviado, né? PhD, né,
[01:27:30] de de como ele é abreviado, né? PhD, né, filósofo doctor, né, mas a gente termina
[01:27:34] filósofo doctor, né, mas a gente termina fazendo uma uma tese de uma contribuição
[01:27:36] fazendo uma uma tese de uma contribuição técnica em uma área e isso já é
[01:27:39] técnica em uma área e isso já é considerado como filosofia e não é
[01:27:41] considerado como filosofia e não é filosofal. Então, a gente deveria de
[01:27:44] filosofal. Então, a gente deveria de novo retornar esse esse esse conceito da
[01:27:47] novo retornar esse esse esse conceito da filosofia, né, da criação de novos e
[01:27:50] filosofia, né, da criação de novos e discutir mais amplamente os impactos
[01:27:53] discutir mais amplamente os impactos daquilo que você faz. completamente.
[01:27:55] daquilo que você faz. completamente. >> Bom, assina embaixo que você tá falando
[01:27:58] >> Bom, assina embaixo que você tá falando [risadas]
[01:27:59] [risadas] >> aí. Aí está também o outro problema, né?
[01:28:02] >> aí. Aí está também o outro problema, né? Ou eu uma coisa que tá saindo agora, né?
[01:28:06] Ou eu uma coisa que tá saindo agora, né? Todos gostendema
[01:28:09] Todos gostendema do Silcon Bale, né?
[01:28:11] do Silcon Bale, né? CEO, eu sigo muito um canal que se chama
[01:28:14] CEO, eu sigo muito um canal que se chama o Diário do CEO. E eles trazem pessoal,
[01:28:20] o Diário do CEO. E eles trazem pessoal, vale, muito aberto e tal. E já ele tinha
[01:28:23] vale, muito aberto e tal. E já ele tinha falado sobre essa ideologia que que eles
[01:28:27] falado sobre essa ideologia que que eles eles têm muito lá. E é importante isso
[01:28:31] eles têm muito lá. E é importante isso porque eh há uns meses
[01:28:35] porque eh há uns meses eh falou Elon Mosque, falou o Harar
[01:28:39] eh falou Elon Mosque, falou o Harar jogando-se programas ontológicos, né, de
[01:28:42] jogando-se programas ontológicos, né, de que dando essas características humanas
[01:28:45] que dando essas características humanas a uma a uma máquina de inferência
[01:28:47] a uma a uma máquina de inferência estatística, né? Eh, isso, isso a gente
[01:28:51] estatística, né? Eh, isso, isso a gente tem que também cortar. E, eh, tudo isto
[01:28:56] tem que também cortar. E, eh, tudo isto também é importante, né, porque você
[01:28:59] também é importante, né, porque você mencionou agora sobre a foto da da da
[01:29:02] mencionou agora sobre a foto da da da terra, né? Bonito, lindo, certo? Mas não
[01:29:07] terra, né? Bonito, lindo, certo? Mas não venderam o show, né? Como uma coisa uau,
[01:29:11] venderam o show, né? Como uma coisa uau, tua a humanidade toda. Voltamos na lua.
[01:29:14] tua a humanidade toda. Voltamos na lua. chineses na lua com sonda tem eh eh como
[01:29:20] chineses na lua com sonda tem eh eh como se chama sistemas satelitais da parte
[01:29:23] se chama sistemas satelitais da parte oscura da lua, né,
[01:29:24] oscura da lua, né, >> para poder transmitir informação para
[01:29:26] >> para poder transmitir informação para cá. Oh, não ficaram 40 minutos sem
[01:29:30] cá. Oh, não ficaram 40 minutos sem comunicação, não, não cooperaram, sabe?
[01:29:33] comunicação, não, não cooperaram, sabe? Então o tema é uma questão política,
[01:29:35] Então o tema é uma questão política, >> com certeza
[01:29:36] >> com certeza >> é uma questão política. E você tá vendo
[01:29:38] >> é uma questão política. E você tá vendo muito sobre o negócio com a guerra. Eu
[01:29:41] muito sobre o negócio com a guerra. Eu falo, eu gosto de falar a guerra que tem
[01:29:45] falo, eu gosto de falar a guerra que tem Irã contra o império grego,
[01:29:48] Irã contra o império grego, [risadas] né? Porque porque eh é
[01:29:52] [risadas] né? Porque porque eh é [roncando] perigoso uma questão de
[01:29:54] [roncando] perigoso uma questão de infraestrutura e bias e eh não servir
[01:29:59] infraestrutura e bias e eh não servir para transportar que balas para
[01:30:02] para transportar que balas para inteligência artificial tá servindo para
[01:30:04] inteligência artificial tá servindo para enxergar o [roncando] com mais.
[01:30:07] enxergar o [roncando] com mais. rapidez e isso tá acontecendo na
[01:30:10] rapidez e isso tá acontecendo na atualidade. Sim,
[01:30:11] atualidade. Sim, >> né? Então acho que talvez uma pergunta
[01:30:14] >> né? Então acho que talvez uma pergunta que surgiria
[01:30:15] que surgiria >> com relação a isso é não só como o
[01:30:19] >> com relação a isso é não só como o Brasil, né? como parte de dessa América
[01:30:22] Brasil, né? como parte de dessa América Latina que que bom ou ruim tem sido eh
[01:30:27] Latina que que bom ou ruim tem sido eh aquela que pensa mais na paz, que pensa
[01:30:29] aquela que pensa mais na paz, que pensa mais na certo, que não tem esse esse
[01:30:32] mais na certo, que não tem esse esse conflito muito agressivo, né, com com o
[01:30:35] conflito muito agressivo, né, com com o resto do da humanidade. Como a gente
[01:30:38] resto do da humanidade. Como a gente deveria se enxergar, afetar esse esse
[01:30:41] deveria se enxergar, afetar esse esse nova realidade, né?
[01:30:44] nova realidade, né? >> Rapaz, as perguntas hoje são quentes,
[01:30:46] >> Rapaz, as perguntas hoje são quentes, né? [risadas]
[01:30:47] né? [risadas] como que a gente deve se enxergar
[01:30:49] como que a gente deve se enxergar enquanto a América Latina. Eh, primeiro
[01:30:51] enquanto a América Latina. Eh, primeiro que nós participamos de uma nova
[01:30:53] que nós participamos de uma nova colonização. Isso é um fato.
[01:30:55] colonização. Isso é um fato. Neocolonialismo
[01:30:57] Neocolonialismo acontece hoje. Já tivemos colonialismo
[01:30:59] acontece hoje. Já tivemos colonialismo na época eh da chegada dos europeus e
[01:31:02] na época eh da chegada dos europeus e hoje nós vivemos uma outra forma de
[01:31:04] hoje nós vivemos uma outra forma de colonialismo, seja para anotação de
[01:31:06] colonialismo, seja para anotação de dados, seja para uso de tecnologias.
[01:31:07] dados, seja para uso de tecnologias. Então, a gente precisa pensar, como você
[01:31:09] Então, a gente precisa pensar, como você colocou, cooperativamente.
[01:31:11] colocou, cooperativamente. Eh, eu não vejo muito isso na América
[01:31:14] Eh, eu não vejo muito isso na América Latina. Eu acho interessantíssimo, por
[01:31:16] Latina. Eu acho interessantíssimo, por exemplo, que os países de língua
[01:31:18] exemplo, que os países de língua hispânica t uma cooperação muito grande
[01:31:21] hispânica t uma cooperação muito grande entre eles e o Brasil não se insere
[01:31:23] entre eles e o Brasil não se insere nesse mundo, não é porque fala
[01:31:26] nesse mundo, não é porque fala português, tenho certeza, tem outras
[01:31:27] português, tenho certeza, tem outras razões que eu não sei dizer, mas eu acho
[01:31:30] razões que eu não sei dizer, mas eu acho que a gente deveria cooperar mais no
[01:31:31] que a gente deveria cooperar mais no sentido de verificar o que que nós
[01:31:33] sentido de verificar o que que nós precisamos enquanto região, ah, como
[01:31:36] precisamos enquanto região, ah, como podemos desenvolver conjuntamente,
[01:31:38] podemos desenvolver conjuntamente, porque existe essa questão do
[01:31:39] porque existe essa questão do neocolonialismo.
[01:31:40] neocolonialismo. Eh, a ponto, por exemplo, de Elon Musk
[01:31:43] Eh, a ponto, por exemplo, de Elon Musk ir no X e falar: "Nós derrubamos mesmo o
[01:31:46] ir no X e falar: "Nós derrubamos mesmo o presidente da Bolívia porque nós
[01:31:48] presidente da Bolívia porque nós queríamos o os minerais raros da
[01:31:51] queríamos o os minerais raros da Bolívia". Ele falou, não sou eu que tô
[01:31:52] Bolívia". Ele falou, não sou eu que tô falando, ele ajudou no processo de tirar
[01:31:55] falando, ele ajudou no processo de tirar o presidente da Bolívia na época. E até
[01:31:58] o presidente da Bolívia na época. E até quando isso pode acontecer? Ou ou você,
[01:32:01] quando isso pode acontecer? Ou ou você, por mais críticas que você tenha a um
[01:32:02] por mais críticas que você tenha a um governo como o do Maduro, que eu acho um
[01:32:05] governo como o do Maduro, que eu acho um governo terrível pro povo venezuelano,
[01:32:08] governo terrível pro povo venezuelano, ah,
[01:32:09] ah, você permitir que um presidente de outro
[01:32:11] você permitir que um presidente de outro país vá e invada o país e tire o
[01:32:13] país vá e invada o país e tire o presidente é algo que tem que ser
[01:32:15] presidente é algo que tem que ser discutido, entendeu? Eh, então nós
[01:32:17] discutido, entendeu? Eh, então nós estamos vivendo um mundo em que alguns
[01:32:19] estamos vivendo um mundo em que alguns países que têm grande poder, não só
[01:32:21] países que têm grande poder, não só econômico quanto militar, eles atuam
[01:32:23] econômico quanto militar, eles atuam como os bules das escolas.
[01:32:25] como os bules das escolas. >> [roncando]
[01:32:26] >> [roncando] >> É, é um fato, é um momento difícil nesse
[01:32:29] >> É, é um fato, é um momento difícil nesse sentido. Nesse [limpando a garganta]
[01:32:30] sentido. Nesse [limpando a garganta] sentido eu concordo com a visão da
[01:32:32] sentido eu concordo com a visão da Paula. Que mundo que eu vivo? Mas esse
[01:32:34] Paula. Que mundo que eu vivo? Mas esse eu tô enxergando esse mundo. Tô
[01:32:36] eu tô enxergando esse mundo. Tô enxergando esse mundo. [risadas] Diga,
[01:32:38] enxergando esse mundo. [risadas] Diga, Bruno.
[01:32:39] Bruno. >> Eh, então eu acho que uma pergunta vai
[01:32:41] >> Eh, então eu acho que uma pergunta vai meio
[01:32:42] meio perguntas. A gente a gente tem uma
[01:32:44] perguntas. A gente a gente tem uma infraestrutura de produção em todas as
[01:32:47] infraestrutura de produção em todas as >> usado. Você tem dois, inclusive.
[01:32:51] >> usado. Você tem dois, inclusive. Dá para ouvir aqui?
[01:32:54] Dá para ouvir aqui? >> Oi, oi. Eh, a minha pergunta é mais ou
[01:32:57] >> Oi, oi. Eh, a minha pergunta é mais ou menos vai ficar acho no meio da pergunta
[01:32:59] menos vai ficar acho no meio da pergunta da Paula e do Vlad. Eh, a gente tem uma
[01:33:02] da Paula e do Vlad. Eh, a gente tem uma infraestrutura de produção e tem gente,
[01:33:05] infraestrutura de produção e tem gente, uma pessoa importante aí falou que todas
[01:33:07] uma pessoa importante aí falou que todas as outras coisas são a superestrutura
[01:33:09] as outras coisas são a superestrutura que se baseiam na infraestrutura de
[01:33:10] que se baseiam na infraestrutura de produção, que tem infraestrutura
[01:33:12] produção, que tem infraestrutura capitalista. Apesar da IA ser geral GPT,
[01:33:16] capitalista. Apesar da IA ser geral GPT, ela ainda vai, ela parte da, ela é ainda
[01:33:19] ela ainda vai, ela parte da, ela é ainda uma superestrutura da infraestrutura,
[01:33:22] uma superestrutura da infraestrutura, ela ainda vai fazer parte da
[01:33:23] ela ainda vai fazer parte da infraestrutura capitalista. Eh, e a
[01:33:26] infraestrutura capitalista. Eh, e a gente tá vendo o imperialismo, não vou
[01:33:28] gente tá vendo o imperialismo, não vou falar país, mas a gente vê influenciando
[01:33:31] falar país, mas a gente vê influenciando e golpes de estado, influenciando
[01:33:33] e golpes de estado, influenciando pósverdade, influenciando genocídio. E a
[01:33:36] pósverdade, influenciando genocídio. E a IA pode se tornar uma ferramenta
[01:33:38] IA pode se tornar uma ferramenta importante para isso e pode haver mais
[01:33:41] importante para isso e pode haver mais investimento na tecnologia para isso,
[01:33:43] investimento na tecnologia para isso, que é a tecnologia de não social do que
[01:33:46] que é a tecnologia de não social do que na social. É desbalanceada essa
[01:33:49] na social. É desbalanceada essa estrutura. A minha pergunta é mais como
[01:33:51] estrutura. A minha pergunta é mais como você vê colocando esse contexto eh na
[01:33:54] você vê colocando esse contexto eh na realidade que a gente vive da IA tendo
[01:33:57] realidade que a gente vive da IA tendo mais tendo mais investimento para paraas
[01:34:00] mais tendo mais investimento para paraas infraestrutura, pros CEOs, pros ricos e
[01:34:02] infraestrutura, pros CEOs, pros ricos e não pra sociedade
[01:34:04] não pra sociedade >> com preocupação. [risadas] Eh, porque é
[01:34:07] >> com preocupação. [risadas] Eh, porque é isso que tá acontecendo. Quem mais
[01:34:09] isso que tá acontecendo. Quem mais investe em tecnologia como IA hoje?
[01:34:10] investe em tecnologia como IA hoje? Silicon V.
[01:34:12] Silicon V. E o Vale Silício, obviamente, vai
[01:34:14] E o Vale Silício, obviamente, vai investir nas soluções
[01:34:17] investir nas soluções utilitárias, aquelas que otimizam
[01:34:20] utilitárias, aquelas que otimizam funções para conseguir trazer o maior
[01:34:21] funções para conseguir trazer o maior recurso para os acionistas das empresas.
[01:34:25] recurso para os acionistas das empresas. Qual a solução que você tem para isso?
[01:34:28] Qual a solução que você tem para isso? Regulamentação é a mínima necessária. A
[01:34:30] Regulamentação é a mínima necessária. A União Europeia tá num num caminho
[01:34:32] União Europeia tá num num caminho importante nesse sentido. Os Estados
[01:34:33] importante nesse sentido. Os Estados Unidos não tão. O Brasil tende aí na
[01:34:36] Unidos não tão. O Brasil tende aí na direção da União Europeia, mas ainda tá
[01:34:38] direção da União Europeia, mas ainda tá parado, né? Eh, dá para você investir
[01:34:42] parado, né? Eh, dá para você investir localmente? Dá. A gente tem visto, o
[01:34:44] localmente? Dá. A gente tem visto, o Brasil 10 anos atrás tinha uma posição
[01:34:46] Brasil 10 anos atrás tinha uma posição inteligência artificial, hoje tem outra
[01:34:48] inteligência artificial, hoje tem outra completamente. Nós formamos muito mais
[01:34:49] completamente. Nós formamos muito mais gente hoje. Temos muito pessoal
[01:34:52] gente hoje. Temos muito pessoal qualificado, tanto é que os nossos
[01:34:53] qualificado, tanto é que os nossos profissionais são procurados pelas
[01:34:55] profissionais são procurados pelas empresas do mundo todo. Ah,
[01:34:57] empresas do mundo todo. Ah, [limpando a garganta]
[01:34:59] [limpando a garganta] temos nossas empresas começando, usando
[01:35:01] temos nossas empresas começando, usando IAI e já se destacando nesse sentido,
[01:35:04] IAI e já se destacando nesse sentido, mas não se compara com o poder do Vale
[01:35:06] mas não se compara com o poder do Vale Celício. Concordo com você. uma coisa,
[01:35:07] Celício. Concordo com você. uma coisa, uma solução que ve transparência e aqui,
[01:35:10] uma solução que ve transparência e aqui, >> mas a transparência precisa de
[01:35:12] >> mas a transparência precisa de regulamentação,
[01:35:13] regulamentação, >> não? Transparência da explicar para todo
[01:35:16] >> não? Transparência da explicar para todo mundo
[01:35:17] mundo >> isso, a educação, com certeza quando a
[01:35:19] >> isso, a educação, com certeza quando a população sabe os impactos e entende,
[01:35:24] população sabe os impactos e entende, >> pode haver essa pressão para
[01:35:26] >> pode haver essa pressão para conseguirmos regulamentação,
[01:35:28] conseguirmos regulamentação, mas eh é um trabalho de formiguinha, né?
[01:35:32] mas eh é um trabalho de formiguinha, né? Eh, por isso que eu falei, eu sinto a
[01:35:33] Eh, por isso que eu falei, eu sinto a importância de estar trabalhando com
[01:35:35] importância de estar trabalhando com isso cada dia mais.
[01:35:37] isso cada dia mais. Temos uma pergunta online, pelo menos
[01:35:39] Temos uma pergunta online, pelo menos para
[01:35:42] desigualdade,
[01:35:43] desigualdade, >> tá? Marcos.
[01:35:47] Eh,
[01:35:49] Eh, acho que é uma coisa que eu vejo com
[01:35:51] acho que é uma coisa que eu vejo com essa apresentação e acho que acabou
[01:35:52] essa apresentação e acho que acabou conectando com o fim dela.
[01:35:55] conectando com o fim dela. Eh,
[01:35:57] Eh, macho um erro político,
[01:36:00] macho um erro político, eh,
[01:36:03] levantar que essa possibilidade de uma I
[01:36:06] levantar que essa possibilidade de uma I ou algo similar vai existir.
[01:36:11] ou algo similar vai existir. a partir que você proclama essa
[01:36:13] a partir que você proclama essa possibilidade, você dá mais poder para
[01:36:16] possibilidade, você dá mais poder para quem para quem para quem tá mais próximo
[01:36:19] quem para quem para quem tá mais próximo dela.
[01:36:20] dela. É, e aí acho aí um pouco que aí é uma
[01:36:23] É, e aí acho aí um pouco que aí é uma coisa que acho que eu que eu discordo
[01:36:24] coisa que acho que eu que eu discordo muito do do começo da posição que você
[01:36:26] muito do do começo da posição que você colocou no na palestra, que é
[01:36:33] você acha de fato que é algo geral,
[01:36:37] você acha de fato que é algo geral, então que é algo que você vai conseguir
[01:36:40] então que é algo que você vai conseguir colocar qualquer tipo de tarefa e isso
[01:36:44] colocar qualquer tipo de tarefa e isso vai conseguir te trazer algo de volta ou
[01:36:46] vai conseguir te trazer algo de volta ou algo que vai demandar engenharia em cada
[01:36:48] algo que vai demandar engenharia em cada em cada casa? Uhum.
[01:36:50] em cada casa? Uhum. >> Então, [limpando a garganta] quando a
[01:36:50] >> Então, [limpando a garganta] quando a gente fala de internet, porque que
[01:36:52] gente fala de internet, porque que porque acho que aí o grande problema de
[01:36:53] porque acho que aí o grande problema de quando a gente fala em inteligência,
[01:36:55] quando a gente fala em inteligência, quando a gente fala em inteligência,
[01:36:57] quando a gente fala em inteligência, para mim é um erro político também, a
[01:36:58] para mim é um erro político também, a gente continuar usando o termo
[01:36:59] gente continuar usando o termo inteligência.
[01:37:00] inteligência. >> Uhum. [limpando a garganta]
[01:37:01] >> Uhum. [limpando a garganta] >> A gente deveria pensar num outro, talvez
[01:37:04] >> A gente deveria pensar num outro, talvez ter um movimento político para dar um
[01:37:05] ter um movimento político para dar um outro nome para essa tecnologia que a
[01:37:06] outro nome para essa tecnologia que a gente tá criando. Imagina que a gente
[01:37:08] gente tá criando. Imagina que a gente fala em inteligência, a gente atribui
[01:37:11] fala em inteligência, a gente atribui uma capacidade maior do que ela
[01:37:12] uma capacidade maior do que ela realmente tem.
[01:37:13] realmente tem. >> Sim. Bom, o o Mustafa Suleiman, ele é
[01:37:17] >> Sim. Bom, o o Mustafa Suleiman, ele é autor do de um livro recente, né, que é
[01:37:21] autor do de um livro recente, né, que é a próxima onda, ele fala eh sobre isso
[01:37:24] a próxima onda, ele fala eh sobre isso também, dessa questão política. Falar
[01:37:27] também, dessa questão política. Falar que AID é possível pode ser visto
[01:37:30] que AID é possível pode ser visto politicamente, pode. E a é ela é
[01:37:33] politicamente, pode. E a é ela é política, né? Mas o fato dela ser vista
[01:37:36] política, né? Mas o fato dela ser vista como uma questão política, talvez ajude
[01:37:39] como uma questão política, talvez ajude a abrir os olhos das pessoas que nós
[01:37:41] a abrir os olhos das pessoas que nós precisamos discutir isso e regulamentar.
[01:37:44] precisamos discutir isso e regulamentar. Ah, eu não falei que a IGI eh tá aqui.
[01:37:49] Ah, eu não falei que a IGI eh tá aqui. Eu falei que com os avanços que nós
[01:37:51] Eu falei que com os avanços que nós estamos tendo, independente de
[01:37:54] estamos tendo, independente de melhorarmos ainda mais, a gente deveria
[01:37:56] melhorarmos ainda mais, a gente deveria deixar de chamar de ADI e chamar de
[01:37:58] deixar de chamar de ADI e chamar de inteligência artificial capaz.
[01:38:01] inteligência artificial capaz. Por quê? Porque talvez precise de
[01:38:02] Por quê? Porque talvez precise de engenharia, precise de adaptação e
[01:38:04] engenharia, precise de adaptação e talvez não resolva tudo, mas ela já vai
[01:38:06] talvez não resolva tudo, mas ela já vai ter impacto claro na vida das pessoas,
[01:38:08] ter impacto claro na vida das pessoas, positivos ou negativos. Então eu sou
[01:38:10] positivos ou negativos. Então eu sou daqueles que acham que nós devemos lidar
[01:38:12] daqueles que acham que nós devemos lidar com isso como inteligência artificial
[01:38:13] com isso como inteligência artificial capaz, não como ai, no sentido que o
[01:38:17] capaz, não como ai, no sentido que o Vale do Silício tenta trazer, que é para
[01:38:19] Vale do Silício tenta trazer, que é para postergar qualquer tipo de
[01:38:20] postergar qualquer tipo de regulamentação. Então vale a corrida sem
[01:38:22] regulamentação. Então vale a corrida sem leis até lá. Ah, e
[01:38:29] deveríamos não falar sobre isso por
[01:38:32] deveríamos não falar sobre isso por causa do risco político. Acho que não.
[01:38:36] causa do risco político. Acho que não. Acho que a gente precisa falar. Eu acho
[01:38:38] Acho que a gente precisa falar. Eu acho que nós já estamos num ponto que a IA se
[01:38:42] que nós já estamos num ponto que a IA se torna transparente um monte de coisa que
[01:38:43] torna transparente um monte de coisa que as pessoas nem pensam mais. Ela já tá
[01:38:45] as pessoas nem pensam mais. Ela já tá transparente na concessão de crédito,
[01:38:48] transparente na concessão de crédito, ela tá transparente na renovação do seu
[01:38:50] ela tá transparente na renovação do seu seguro, tá transparente na recomendação
[01:38:53] seguro, tá transparente na recomendação dos filmes que você assiste, na busca
[01:38:55] dos filmes que você assiste, na busca que você faz na internet, na hora que
[01:38:57] que você faz na internet, na hora que você loga no seu celular. Ela tá
[01:38:59] você loga no seu celular. Ela tá transparente um monte de coisa. Até na
[01:39:00] transparente um monte de coisa. Até na busca que de um endereço que você vai
[01:39:02] busca que de um endereço que você vai pelo Waze hoje já não é mais da extra do
[01:39:04] pelo Waze hoje já não é mais da extra do ponto A e pro ponto B. Ele já tá
[01:39:06] ponto A e pro ponto B. Ele já tá balanceando o tráfego, ele tá
[01:39:08] balanceando o tráfego, ele tá balanceando se você tá passando em
[01:39:09] balanceando se você tá passando em frente ao patrocinador dele e a a loja
[01:39:12] frente ao patrocinador dele e a a loja que tá pagando para ele para que você
[01:39:14] que tá pagando para ele para que você passe em frente, tudo isso tá sendo
[01:39:15] passe em frente, tudo isso tá sendo levado em consideração. Então já tá aqui
[01:39:18] levado em consideração. Então já tá aqui e é o momento que a gente precisa
[01:39:19] e é o momento que a gente precisa demandar eh eh regulamentação. A gente
[01:39:23] demandar eh eh regulamentação. A gente precisa, eu acho,
[01:39:25] precisa, eu acho, >> acho que aí a a eu acho que eu vou não
[01:39:28] >> acho que aí a a eu acho que eu vou não achei que que a gente não deva falar. É,
[01:39:30] achei que que a gente não deva falar. É, não entendi.
[01:39:31] não entendi. >> Mas mas eu acho que a o ponto é talvez a
[01:39:33] >> Mas mas eu acho que a o ponto é talvez a gente não deva falar como falar na sua
[01:39:36] gente não deva falar como falar na sua onipresença.
[01:39:37] onipresença. >> Ah, sim.
[01:39:38] >> Ah, sim. >> E não nessa capacidade magnânima que ela
[01:39:41] >> E não nessa capacidade magnânima que ela pode ter.
[01:39:41] pode ter. >> Sim. Sim. Por isso que eu não acho que é
[01:39:42] >> Sim. Sim. Por isso que eu não acho que é uma capacidade magnânima, eu acho que é
[01:39:44] uma capacidade magnânima, eu acho que é capaz.
[01:39:45] capaz. >> Isso. Isso. Então, acho que é bom a
[01:39:46] >> Isso. Isso. Então, acho que é bom a gente
[01:39:47] gente >> já então já de partida negar a EDI. Acho
[01:39:52] >> já então já de partida negar a EDI. Acho que negar a ED e por mais que a gente
[01:39:54] que negar a ED e por mais que a gente fala que a IA vai estar onipresente na
[01:39:57] fala que a IA vai estar onipresente na nossa vida, acho que é um ponto político
[01:39:59] nossa vida, acho que é um ponto político forte que a gente pode ter, porque a ID
[01:40:02] forte que a gente pode ter, porque a ID é um termo que tá sendo usado por esse
[01:40:04] é um termo que tá sendo usado por esse grupo tecnocrata. Exatamente.
[01:40:06] grupo tecnocrata. Exatamente. Exatamente.
[01:40:06] Exatamente. >> Então, talvez buscar um outro nome,
[01:40:09] >> Então, talvez buscar um outro nome, buscar uma outra forma e se contrapor a
[01:40:10] buscar uma outra forma e se contrapor a esse ponto acho importante
[01:40:12] esse ponto acho importante politicamente. E acho que aí uma outra
[01:40:14] politicamente. E acho que aí uma outra pergunta é exatamente essa, assim,
[01:40:16] pergunta é exatamente essa, assim, porque eh
[01:40:22] acho que fica um um uma coisa que toda
[01:40:24] acho que fica um um uma coisa que toda vez que a gente faz uma um debate
[01:40:27] vez que a gente faz uma um debate sociotécnico, que é o que você fez na
[01:40:29] sociotécnico, que é o que você fez na segunda parte da palestra, a gente tem
[01:40:31] segunda parte da palestra, a gente tem uma parece que existe uma
[01:40:36] uma parece que existe uma uma dicotomia entre o técnico e o
[01:40:38] uma dicotomia entre o técnico e o social,
[01:40:40] social, uma dicotomia entre a otimização
[01:40:43] uma dicotomia entre a otimização e o e a e a aplicação com um certo fim,
[01:40:50] e o e a e a aplicação com um certo fim, obviamente. Bom, e aí eu acho que o que
[01:40:53] obviamente. Bom, e aí eu acho que o que eu queria, eu queria que você discutisse
[01:40:55] eu queria, eu queria que você discutisse um pouco isso nesse ponto de vista de
[01:40:59] um pouco isso nesse ponto de vista de como agente, como técnico, puramente
[01:41:02] como agente, como técnico, puramente técnico,
[01:41:02] técnico, >> pode trazer o outro lado. Sim, beleza.
[01:41:05] >> pode trazer o outro lado. Sim, beleza. >> Pode possamos ser um, se a gente
[01:41:07] >> Pode possamos ser um, se a gente consegue ser um bom tecnocrata. Tá,
[01:41:10] consegue ser um bom tecnocrata. Tá, entendi.
[01:41:10] entendi. >> Ao invés de ser e não necessariamente
[01:41:12] >> Ao invés de ser e não necessariamente ter que ser um humanista.
[01:41:14] ter que ser um humanista. >> Muito bom. Eh, eu acho que sim. Eh, o
[01:41:16] >> Muito bom. Eh, eu acho que sim. Eh, o que que nós precisamos fazer? Ao invés
[01:41:18] que que nós precisamos fazer? Ao invés de pensar, por exemplo, no baixo nível
[01:41:22] de pensar, por exemplo, no baixo nível em otimizar um algoritmo baseado apenas
[01:41:24] em otimizar um algoritmo baseado apenas nas funções utilitárias,
[01:41:26] nas funções utilitárias, a primeira coisa antes de pensar nesse
[01:41:29] a primeira coisa antes de pensar nesse algoritmo é trazer quem entende dos
[01:41:31] algoritmo é trazer quem entende dos problemas
[01:41:33] problemas e quem vai ser afetado pelos problemas.
[01:41:36] e quem vai ser afetado pelos problemas. Que que eu quero dizer? Se você tá
[01:41:38] Que que eu quero dizer? Se você tá desenvolvendo algo que vai ser, por
[01:41:40] desenvolvendo algo que vai ser, por exemplo,
[01:41:42] exemplo, eh,
[01:41:44] eh, [roncando] uma técnica importante para
[01:41:45] [roncando] uma técnica importante para concessão de créditos,
[01:41:48] concessão de créditos, quem que entende disso?
[01:41:50] quem que entende disso? Traga para ajudar a pensar o problema.
[01:41:52] Traga para ajudar a pensar o problema. Quem vai ser impactado por isso? Quem
[01:41:54] Quem vai ser impactado por isso? Quem pede crédito?
[01:41:56] pede crédito? você você vai tá deixando grupos de
[01:41:57] você você vai tá deixando grupos de lado, você vai ser você será injusto.
[01:42:02] lado, você vai ser você será injusto. Então, a primeira coisa é ter os atores
[01:42:06] Então, a primeira coisa é ter os atores que influenciam e que são influenciados
[01:42:08] que influenciam e que são influenciados participando da discussão. E isso, por
[01:42:10] participando da discussão. E isso, por exemplo, a Iá não vai fazer.
[01:42:13] exemplo, a Iá não vai fazer. Aqui é outro diferencial humano no
[01:42:15] Aqui é outro diferencial humano no desenvolvimento de soluções, como você
[01:42:16] desenvolvimento de soluções, como você tinha colocado lá. Você não vai sentar e
[01:42:18] tinha colocado lá. Você não vai sentar e sair desenvolvendo o código, cara. Os
[01:42:20] sair desenvolvendo o código, cara. Os problemas são cada vez mais complexos na
[01:42:22] problemas são cada vez mais complexos na nossa sociedade. Isso vai implicar que
[01:42:23] nossa sociedade. Isso vai implicar que quem trabalha com desenvolvimento sério
[01:42:25] quem trabalha com desenvolvimento sério de código precisa entender dos
[01:42:26] de código precisa entender dos problemas, precisa discutir com os
[01:42:28] problemas, precisa discutir com os atores. Isso eu acho que que vai
[01:42:30] atores. Isso eu acho que que vai acontecer, pelo menos em alguns setores,
[01:42:32] acontecer, pelo menos em alguns setores, não em todos. Obviamente tem gente que
[01:42:33] não em todos. Obviamente tem gente que desenvolve código achando que eh só o
[01:42:36] desenvolve código achando que eh só o computeiro resolve, entende tudo.
[01:42:38] computeiro resolve, entende tudo. Inclusive tem algumas profissões com
[01:42:40] Inclusive tem algumas profissões com justiça pensam que nós achamos que
[01:42:41] justiça pensam que nós achamos que resolvemos qualquer problema, né, nós da
[01:42:43] resolvemos qualquer problema, né, nós da computação. Eh, por quê? Porque durante
[01:42:45] computação. Eh, por quê? Porque durante muito tempo os os o pessoal da
[01:42:48] muito tempo os os o pessoal da computação chegava para trabalhar com o
[01:42:49] computação chegava para trabalhar com o médico, por exemplo, não, especialista
[01:42:50] médico, por exemplo, não, especialista não precisa não, só me dá o dataset. Eh,
[01:42:52] não precisa não, só me dá o dataset. Eh, era, era. Então, eu acho que a primeira
[01:42:55] era, era. Então, eu acho que a primeira coisa é trazer os atores. Segundo,
[01:42:57] coisa é trazer os atores. Segundo, quando você pensar no desenvolvimento em
[01:42:59] quando você pensar no desenvolvimento em si, como é que você incorpora o
[01:43:01] si, como é que você incorpora o conhecimento dos atores? Você tem
[01:43:03] conhecimento dos atores? Você tem pesquisa nessa área? Você tem pesquisa
[01:43:05] pesquisa nessa área? Você tem pesquisa em justiça algorítmica? Como é que você
[01:43:07] em justiça algorítmica? Como é que você traz o conhecimento da injustiça
[01:43:10] traz o conhecimento da injustiça para que você diminua a injustiça na
[01:43:12] para que você diminua a injustiça na função de otimização? Porque no final do
[01:43:15] função de otimização? Porque no final do dia você vai ter que traduzir o problema
[01:43:18] dia você vai ter que traduzir o problema social em algo que dá para você
[01:43:20] social em algo que dá para você implementar na computação. E algo que dá
[01:43:23] implementar na computação. E algo que dá para implementar na computação implica
[01:43:24] para implementar na computação implica funções, né? Então a gente vai ter que
[01:43:27] funções, né? Então a gente vai ter que traduzir isso. Isso é um conhecimento
[01:43:29] traduzir isso. Isso é um conhecimento que é diferencial, não vai ser alguém
[01:43:31] que é diferencial, não vai ser alguém que vai fazer para você, tá? Então eu
[01:43:34] que vai fazer para você, tá? Então eu vejo a profissão de computação
[01:43:36] vejo a profissão de computação importante tanto quanto era no passado,
[01:43:39] importante tanto quanto era no passado, talvez até mais importante no futuro.
[01:43:41] talvez até mais importante no futuro. Então não fiquem assustados. Temos
[01:43:43] Então não fiquem assustados. Temos muitas possibilidades pelo futuro. O que
[01:43:45] muitas possibilidades pelo futuro. O que eu tô dizendo é que algumas coisas que
[01:43:47] eu tô dizendo é que algumas coisas que nós fazíamos não são tão mais
[01:43:50] nós fazíamos não são tão mais importantes, mas abrem-se outras
[01:43:51] importantes, mas abrem-se outras ponteiras.
[01:43:53] ponteiras. >> Uma parte
[01:43:55] >> Uma parte questão, estuda a teoria.
[01:43:58] questão, estuda a teoria. >> Boa. É isso.
[01:43:59] >> Boa. É isso. >> Fundamento.
[01:43:59] >> Fundamento. >> Fundamento.
[01:44:00] >> Fundamento. >> Estuda a teoria. Esquece a aplicação.
[01:44:03] >> Estuda a teoria. Esquece a aplicação. Estuda a teoria. É, é, é, ali onde você
[01:44:05] Estuda a teoria. É, é, é, ali onde você vai conseguir algo. E pode ser qualquer
[01:44:06] vai conseguir algo. E pode ser qualquer teoria, entendeu? Filosofia.
[01:44:10] teoria, entendeu? Filosofia. Hoje eu tô numa pira de teologia.
[01:44:14] Hoje eu tô numa pira de teologia. >> [risadas]
[01:44:14] >> [risadas] >> o quanto o quanto ela guia e move a
[01:44:16] >> o quanto o quanto ela guia e move a nossa nossa sociedade,
[01:44:19] nossa nossa sociedade, >> porque provavelmente você vai vai mudar
[01:44:21] >> porque provavelmente você vai vai mudar a tua capacidade de jogar algo que uma
[01:44:23] a tua capacidade de jogar algo que uma IA faz.
[01:44:25] IA faz. >> Duas perguntas finais aqui.
[01:44:29] >> Duas perguntas finais aqui. Ah, você já tá com o microfone, então
[01:44:30] Ah, você já tá com o microfone, então vai ser um de você que parou, por favor,
[01:44:32] vai ser um de você que parou, por favor, diga,
[01:44:34] diga, >> tá? Queria primeiro agradecer a
[01:44:36] >> tá? Queria primeiro agradecer a apresentação, foi muito importante.
[01:44:39] apresentação, foi muito importante. >> Eh, eu acho que a minha questão vai mais
[01:44:42] >> Eh, eu acho que a minha questão vai mais no caminho da questão da criatividade,
[01:44:44] no caminho da questão da criatividade, da inteligência, como a gente essas
[01:44:46] da inteligência, como a gente essas coisas. Eh, então ultimamente aquele car
[01:44:49] coisas. Eh, então ultimamente aquele car estudo que teve arte,
[01:44:54] estudo que teve arte, mas a questão seria, será que se não
[01:44:56] mas a questão seria, será que se não tivesse existido nunca o estúdio será
[01:44:58] tivesse existido nunca o estúdio será que a IA conseguiria gerar images em
[01:45:01] que a IA conseguiria gerar images em artes parecidas ela? Se nunca tivesse
[01:45:03] artes parecidas ela? Se nunca tivesse sido diab
[01:45:05] sido diab conseguir escrever as
[01:45:06] conseguir escrever as [limpando a garganta] letras de tudo
[01:45:08] [limpando a garganta] letras de tudo acord.
[01:45:09] acord. >> Eu eu gosto de eu gosto de fazer sessões
[01:45:11] >> Eu eu gosto de eu gosto de fazer sessões como essa aqui porque me fazem pensar
[01:45:13] como essa aqui porque me fazem pensar fora da caixa e querer aprender ainda
[01:45:16] fora da caixa e querer aprender ainda mais, né? Cara, a diferenciação entre
[01:45:20] mais, né? Cara, a diferenciação entre criatividade e inteligência é muito
[01:45:24] criatividade e inteligência é muito difícil,
[01:45:26] difícil, né? É que existem diferentes nuances da
[01:45:28] né? É que existem diferentes nuances da inteligência. Existe a inteligência
[01:45:30] inteligência. Existe a inteligência emocional, existe a inteligência para
[01:45:31] emocional, existe a inteligência para resolver problema e uma das umas da
[01:45:34] resolver problema e uma das umas da inteligência é a capacidade de criar
[01:45:36] inteligência é a capacidade de criar coisas, né? Se você me fizesse essa
[01:45:39] coisas, né? Se você me fizesse essa pergunta 10 anos atrás, eu falaria:
[01:45:40] pergunta 10 anos atrás, eu falaria: "Não, a IA realmente não cria coisa
[01:45:42] "Não, a IA realmente não cria coisa nova. Ela é apenas um ligador de pontos
[01:45:45] nova. Ela é apenas um ligador de pontos de coisas que existem. Hoje não é mais
[01:45:47] de coisas que existem. Hoje não é mais verdade.
[01:45:49] verdade. Não é mais verdade. Basta ver o
[01:45:51] Não é mais verdade. Basta ver o movimento 37
[01:45:54] movimento 37 da partida de gol de 2016 do Alfa Gol
[01:45:58] da partida de gol de 2016 do Alfa Gol contra o campeão mundial. A jogada 37
[01:46:01] contra o campeão mundial. A jogada 37 nunca foi feita.
[01:46:04] nunca foi feita. Nunca tinha sido feita. Nenhum jogo
[01:46:05] Nunca tinha sido feita. Nenhum jogo registrado ela tinha sido feita. E ela
[01:46:08] registrado ela tinha sido feita. E ela foi inventada pelo Alfa Go e ela foi
[01:46:10] foi inventada pelo Alfa Go e ela foi crucial para uma vitória e ela foi feita
[01:46:13] crucial para uma vitória e ela foi feita dezenas de jogadas antes.
[01:46:16] dezenas de jogadas antes. Essa jogada 37,
[01:46:18] Essa jogada 37, assim como ela, tem outros exemplos de
[01:46:20] assim como ela, tem outros exemplos de criatividade, algorítmica que começam a
[01:46:22] criatividade, algorítmica que começam a aparecer e são bem interessantes.
[01:46:25] aparecer e são bem interessantes. Ah, isso quer dizer que ela tá que a
[01:46:28] Ah, isso quer dizer que ela tá que a gente chegou numa inteligência superior?
[01:46:30] gente chegou numa inteligência superior? Não é que talvez, isso é talvez, não,
[01:46:34] Não é que talvez, isso é talvez, não, não tem prova, talvez
[01:46:37] não tem prova, talvez a partir de uma grande quantidade de
[01:46:38] a partir de uma grande quantidade de dados você encontra tantas
[01:46:40] dados você encontra tantas possibilidades de ligação entre pontos
[01:46:43] possibilidades de ligação entre pontos que não necessariamente pontos que já
[01:46:44] que não necessariamente pontos que já tenham sido ligados no passado não sejam
[01:46:46] tenham sido ligados no passado não sejam possíveis de serem ligados pro futuro.
[01:46:49] possíveis de serem ligados pro futuro. Então, o fato de nunca ter tido uma
[01:46:51] Então, o fato de nunca ter tido uma jogada 37, mas pode-se ter a partir de
[01:46:54] jogada 37, mas pode-se ter a partir de tantos dados de treinamento, pode-se ter
[01:46:56] tantos dados de treinamento, pode-se ter a a possibilidade de combinar coisas que
[01:46:58] a a possibilidade de combinar coisas que bastava ter explorado um pouco mais
[01:47:00] bastava ter explorado um pouco mais buscas,
[01:47:01] buscas, tá? Então eu acho que é possível criar
[01:47:03] tá? Então eu acho que é possível criar coisa nova com ia, eh, seja
[01:47:06] coisa nova com ia, eh, seja desenvolvimento de código, no caso do
[01:47:08] desenvolvimento de código, no caso do estúdio Gible, por exemplo, daria pra
[01:47:10] estúdio Gible, por exemplo, daria pra gente ter exatamente o estúdio GB?
[01:47:12] gente ter exatamente o estúdio GB? Talvez não,
[01:47:14] Talvez não, porque a gente conseguiu justamente
[01:47:16] porque a gente conseguiu justamente replicar o estúdio livro porque foi
[01:47:18] replicar o estúdio livro porque foi pedido para isso. Mas você poderia ter
[01:47:20] pedido para isso. Mas você poderia ter pedido algo do tipo em artline com o
[01:47:24] pedido algo do tipo em artline com o fundo, a tinta um pouco esmaecida, pode
[01:47:27] fundo, a tinta um pouco esmaecida, pode ser. Mas aí seria um casamento da
[01:47:29] ser. Mas aí seria um casamento da inteligência e criatividade humana com a
[01:47:31] inteligência e criatividade humana com a da máquina, tá? Eu acho que o maior
[01:47:33] da máquina, tá? Eu acho que o maior potencial é a inteligência humana com a
[01:47:35] potencial é a inteligência humana com a máquina.
[01:47:38] máquina. É aqui última.
[01:47:42] [roncando]
[01:47:43] [roncando] Obrigada.
[01:47:45] Obrigada. Boa tarde, professor. Eh, são duas
[01:47:47] Boa tarde, professor. Eh, são duas perguntas, na verdade. A primeira seria
[01:47:49] perguntas, na verdade. A primeira seria em relação a um pouco que a qual
[01:47:52] em relação a um pouco que a qual desculpa,
[01:47:53] desculpa, >> Paula. falou que é assim, quando você tá
[01:47:56] >> Paula. falou que é assim, quando você tá comentando sobre a os dois tipos de gás
[01:48:00] comentando sobre a os dois tipos de gás pro mundo, a tecnocrata e a humanista,
[01:48:02] pro mundo, a tecnocrata e a humanista, tem um problema assim que eh eu acho que
[01:48:06] tem um problema assim que eh eu acho que permeia as duas as duas visões, porque o
[01:48:09] permeia as duas as duas visões, porque o que eu vejo atualmente é que a a IA ela
[01:48:13] que eu vejo atualmente é que a a IA ela tem junto com tudo que envolve ela eh em
[01:48:18] tem junto com tudo que envolve ela eh em relação à individualidade de cada um,
[01:48:20] relação à individualidade de cada um, porque quando você comentou que a
[01:48:22] porque quando você comentou que a unidade idade avança na mente coletiva,
[01:48:25] unidade idade avança na mente coletiva, ela é realmente significante para
[01:48:27] ela é realmente significante para realmente usar a humanidade, mas foram
[01:48:29] realmente usar a humanidade, mas foram mentes individuais que conseguiram
[01:48:31] mentes individuais que conseguiram grandes brews, assim em relação à
[01:48:33] grandes brews, assim em relação à pesquisa e e a e as coisas que a gente
[01:48:36] pesquisa e e a e as coisas que a gente conquistou como espécie, né? Então, com
[01:48:39] conquistou como espécie, né? Então, com os e todos os vieses que ela carrega,
[01:48:42] os e todos os vieses que ela carrega, toda eh essa esses dados que reforçam um
[01:48:46] toda eh essa esses dados que reforçam um comportamento específico, eh, ela vai
[01:48:48] comportamento específico, eh, ela vai ter essa tendência de homogeneizar o
[01:48:50] ter essa tendência de homogeneizar o pensamento crítico, homogeneizar as
[01:48:52] pensamento crítico, homogeneizar as pessoas e vai ter ao longo a perda da
[01:48:53] pessoas e vai ter ao longo a perda da individualidade em diversas áreas, da
[01:48:56] individualidade em diversas áreas, da pesquisa, eh, nas artes, em diversas
[01:48:59] pesquisa, eh, nas artes, em diversas áreas assim. E a questão é como que a
[01:49:01] áreas assim. E a questão é como que a gente eh vai trabalhar isso, sabendo que
[01:49:07] gente eh vai trabalhar isso, sabendo que usando a IA como ferramenta, sendo que
[01:49:08] usando a IA como ferramenta, sendo que pode ser que ela só esteja harmonizando,
[01:49:10] pode ser que ela só esteja harmonizando, homogenizando o pensamento crítico e
[01:49:14] homogenizando o pensamento crítico e como consequência pode estagnar a
[01:49:15] como consequência pode estagnar a produção intelectual humana. E a outra
[01:49:18] produção intelectual humana. E a outra pergunta seria em relação à moral,
[01:49:20] pergunta seria em relação à moral, porque como você mesmo falou, a
[01:49:22] porque como você mesmo falou, a moralidade humana e a ética humana há
[01:49:23] moralidade humana e a ética humana há 100 anos, 200 anos atrás é diferente. E
[01:49:25] 100 anos, 200 anos atrás é diferente. E a moralidade assim como construções
[01:49:27] a moralidade assim como construções humanas, elas são aprendidas ao longo da
[01:49:30] humanas, elas são aprendidas ao longo da da nossa da geração como pessoa. E se
[01:49:32] da nossa da geração como pessoa. E se ela é um fator aprendido e não inato um
[01:49:35] ela é um fator aprendido e não inato um ser humano, porque a Iá também não
[01:49:37] ser humano, porque a Iá também não poderia aprender e ser melhor que a
[01:49:38] poderia aprender e ser melhor que a gente? E aí no que você comentou sobre
[01:49:42] gente? E aí no que você comentou sobre eh o que resta pra gente no futuro, esse
[01:49:45] eh o que resta pra gente no futuro, esse pensamento moral, esse pensamento ético,
[01:49:47] pensamento moral, esse pensamento ético, porque talvez ela não faça melhor do que
[01:49:49] porque talvez ela não faça melhor do que a gente também. Então essas seriam as
[01:49:51] a gente também. Então essas seriam as duas perguntas,
[01:49:52] duas perguntas, >> rapaz.
[01:49:54] >> rapaz. >> Eh, a segunda, por que que a Iana não
[01:49:56] >> Eh, a segunda, por que que a Iana não pode aprender? É porque no momento no
[01:49:59] pode aprender? É porque no momento no momento nós ainda não sabemos como
[01:50:01] momento nós ainda não sabemos como computar moralidade,
[01:50:04] computar moralidade, assim como nós não sabemos como computar
[01:50:06] assim como nós não sabemos como computar consciência.
[01:50:07] consciência. Pode ser que em algum momento a gente
[01:50:08] Pode ser que em algum momento a gente tenha algum breakthrough e seja capaz de
[01:50:11] tenha algum breakthrough e seja capaz de transformar esses conceitos abstratos em
[01:50:15] transformar esses conceitos abstratos em código. Pode ser. Então, para quem tiver
[01:50:18] código. Pode ser. Então, para quem tiver um pouco mais de curiosidade para ir
[01:50:19] um pouco mais de curiosidade para ir nessa linha da dessa pergunta, existe um
[01:50:20] nessa linha da dessa pergunta, existe um livro que chama Você não computável, Não
[01:50:23] livro que chama Você não computável, Não Comput, que discute vários aspectos da
[01:50:26] Comput, que discute vários aspectos da da do ser humano que não são
[01:50:28] da do ser humano que não são computáveis. Moral é uma delas. Eh,
[01:50:31] computáveis. Moral é uma delas. Eh, ética você já consegue computar um pouco
[01:50:33] ética você já consegue computar um pouco a partir de vários exemplos. Eh,
[01:50:35] a partir de vários exemplos. Eh, consciência, sub consciência, você não
[01:50:37] consciência, sub consciência, você não consegue. Então, se nós conseguimos
[01:50:39] consegue. Então, se nós conseguimos computar um dia, sim, pode ser que nós
[01:50:41] computar um dia, sim, pode ser que nós conseguimos ter, consigamos ter um
[01:50:43] conseguimos ter, consigamos ter um algoritmo, conjunto de algoritmos que
[01:50:45] algoritmo, conjunto de algoritmos que tenha moralidade. Ah, mas para isso a
[01:50:48] tenha moralidade. Ah, mas para isso a gente também vai precisar ter o
[01:50:49] gente também vai precisar ter o desenvolvimento da noção de selfie de si
[01:50:53] desenvolvimento da noção de selfie de si mesmo. Então, hoje o chat VT não tem
[01:50:56] mesmo. Então, hoje o chat VT não tem noção de si mesmo, ele não se localiza
[01:50:59] noção de si mesmo, ele não se localiza no mundo, ele não tem autoconsciência.
[01:51:01] no mundo, ele não tem autoconsciência. você precisaria ter esse desenvolvimento
[01:51:03] você precisaria ter esse desenvolvimento também, porque isso tá associado com
[01:51:05] também, porque isso tá associado com moral. Ah, em relação a à outra pergunta
[01:51:13] que permeia, né? Você falou questão da
[01:51:15] que permeia, né? Você falou questão da de permear tanto o o o humanismo quanto
[01:51:18] de permear tanto o o o humanismo quanto o tecnocrata, né?
[01:51:21] o tecnocrata, né? Pode repetir o com você.
[01:51:24] Pode repetir o com você. >> A questão é tipo o uso da IA, ela
[01:51:27] >> A questão é tipo o uso da IA, ela carrega esse viés do da internet e da
[01:51:30] carrega esse viés do da internet e da produção humana até hoje, que é um viés
[01:51:32] produção humana até hoje, que é um viés >> do coletivo, tá? Você vai homogeneizar.
[01:51:35] >> do coletivo, tá? Você vai homogeneizar. Eh, sim, do jeito que nós temos IAS
[01:51:37] Eh, sim, do jeito que nós temos IAS hoje, eh, com boa parte das pessoas
[01:51:40] hoje, eh, com boa parte das pessoas usando simplesmente para deixar de fazer
[01:51:41] usando simplesmente para deixar de fazer as tarefas, dividindo para ir a fazer,
[01:51:43] as tarefas, dividindo para ir a fazer, nós temos a normalização do mediano.
[01:51:47] nós temos a normalização do mediano. Então, quem é muito ruim passa a ser
[01:51:49] Então, quem é muito ruim passa a ser médio e quem é bom e e tá deixando de
[01:51:53] médio e quem é bom e e tá deixando de usar criticamente desce, passa pro
[01:51:55] usar criticamente desce, passa pro mediano. Essa normalização tá
[01:51:56] mediano. Essa normalização tá acontecendo hoje. Como que a gente deixa
[01:51:58] acontecendo hoje. Como que a gente deixa de fazer isso? A única forma que eu vejo
[01:52:00] de fazer isso? A única forma que eu vejo é você desenvolvendo as suas
[01:52:01] é você desenvolvendo as suas habilidades, né? Eh, como a gente falou
[01:52:04] habilidades, né? Eh, como a gente falou aqui, senso crítico, leitura,
[01:52:06] aqui, senso crítico, leitura, se jogar no mundo, interagir com outras
[01:52:08] se jogar no mundo, interagir com outras pessoas, abrir mão de ficar dentro da
[01:52:11] pessoas, abrir mão de ficar dentro da sua zona de conforto e tentar aprender
[01:52:14] sua zona de conforto e tentar aprender se colocar na posição de outros. Eh, só
[01:52:17] se colocar na posição de outros. Eh, só dessa forma que você consegue sair do
[01:52:18] dessa forma que você consegue sair do seu mundinho e talvez, talvez, eh, não
[01:52:23] seu mundinho e talvez, talvez, eh, não ficar nessa média geral da I. Eh, então,
[01:52:26] ficar nessa média geral da I. Eh, então, daqui paraa frente, eu vejo isso com
[01:52:28] daqui paraa frente, eu vejo isso com textos, tá? Textos de alunos.
[01:52:30] textos, tá? Textos de alunos. Eu não recebo mais texto horrível.
[01:52:34] Não recebam. Isso é um bom um bom ponto.
[01:52:37] Não recebam. Isso é um bom um bom ponto. A pessoa tá sabendo usar, mas também faz
[01:52:40] A pessoa tá sabendo usar, mas também faz um bom tempo que eu não recebo um texto
[01:52:41] um bom tempo que eu não recebo um texto excepcional.
[01:52:43] excepcional. Já aconteceu de eu receber texto de
[01:52:45] Já aconteceu de eu receber texto de aluno que era excepcional, que é eu olho
[01:52:47] aluno que era excepcional, que é eu olho pra pessoa, fala: "Você poderia ter sido
[01:52:48] pra pessoa, fala: "Você poderia ter sido escritor,
[01:52:50] escritor, tá? Ah, eu recebo os textos hoje muito
[01:52:53] tá? Ah, eu recebo os textos hoje muito bons, de alguns melhorou muito, mas
[01:52:56] bons, de alguns melhorou muito, mas ruins não aparece mais.
[01:52:58] ruins não aparece mais. Então, há essa normalização e eu
[01:53:00] Então, há essa normalização e eu [limpando a garganta] acho que a gente
[01:53:01] [limpando a garganta] acho que a gente precisa continuar se melhorando eh nesse
[01:53:04] precisa continuar se melhorando eh nesse novo nesse novo contexto, mas a minha
[01:53:07] novo nesse novo contexto, mas a minha preocupação é para as pessoas que
[01:53:10] preocupação é para as pessoas que delegam.
[01:53:12] delegam. Então, recentemente eu vi uma frase
[01:53:13] Então, recentemente eu vi uma frase muito interessante, eu tenho usado ela
[01:53:15] muito interessante, eu tenho usado ela que é a seguinte: eu não tenho medo da
[01:53:16] que é a seguinte: eu não tenho medo da IA, você já deve ter ouvido essa frase.
[01:53:18] IA, você já deve ter ouvido essa frase. Eu não tenho medo da IA, eu tenho medo
[01:53:20] Eu não tenho medo da IA, eu tenho medo da falta da inteligência natural.
[01:53:22] da falta da inteligência natural. [risadas]
[01:53:23] [risadas] Então, não tenho medo da inteligência
[01:53:24] Então, não tenho medo da inteligência artificial, tenho medo da falta da
[01:53:26] artificial, tenho medo da falta da inteligência natural. Quando você deixa
[01:53:28] inteligência natural. Quando você deixa de saber usar a sua, mas eu tenho um
[01:53:31] de saber usar a sua, mas eu tenho um pouco de preocupação com a
[01:53:32] pouco de preocupação com a homogeneização.
[01:53:34] homogeneização. Ele tava na frente.
[01:53:37] Ele tava na frente. >> Vamos ver quanto é. Temos mais uns 5
[01:53:38] >> Vamos ver quanto é. Temos mais uns 5 minutos. Eslene,
[01:53:40] minutos. Eslene, >> eu acho que às quatro tem. Então vamos
[01:53:42] >> eu acho que às quatro tem. Então vamos lá. Pergunta rápido e curtir. Ok.
[01:53:44] lá. Pergunta rápido e curtir. Ok. Obrigado. Eh, tem vários movimentos no
[01:53:47] Obrigado. Eh, tem vários movimentos no mercado que resultam dessa
[01:53:48] mercado que resultam dessa transformação. Uma, algumas são caristia
[01:53:51] transformação. Uma, algumas são caristia da ranta cultal, cloud vira de manejo de
[01:53:56] da ranta cultal, cloud vira de manejo de mão de obra em pesquisa, tem n vezes
[01:53:58] mão de obra em pesquisa, tem n vezes mais pesquisadores em centros privados
[01:54:00] mais pesquisadores em centros privados do que em instituições públicas comsite
[01:54:04] do que em instituições públicas comsite o barateamento de habilidades humanas
[01:54:05] o barateamento de habilidades humanas versus a subida na derrocada de seres
[01:54:08] versus a subida na derrocada de seres humanos, escassez de recursos vitais,
[01:54:11] humanos, escassez de recursos vitais, investimentos destrutivos.
[01:54:13] investimentos destrutivos. Isso pode ser considerado pilares de um
[01:54:15] Isso pode ser considerado pilares de um dos braços, o braço otimizador e da
[01:54:18] dos braços, o braço otimizador e da porque é uma otimização de lucro.
[01:54:20] porque é uma otimização de lucro. >> E como a gente pensa a resposta é isso,
[01:54:23] >> E como a gente pensa a resposta é isso, né? Isso tem que ter uma ressaca alguma
[01:54:24] né? Isso tem que ter uma ressaca alguma hora e a gente tem que adiantar isso de
[01:54:27] hora e a gente tem que adiantar isso de alguma maneira, não?
[01:54:28] alguma maneira, não? >> É, eu acho que a gente tem que ter um
[01:54:29] >> É, eu acho que a gente tem que ter um call for action, é uma chamada ação. Eh,
[01:54:31] call for action, é uma chamada ação. Eh, eu acho que é uma manifestação disso que
[01:54:33] eu acho que é uma manifestação disso que você colocou. Eh, a partir do momento
[01:54:36] você colocou. Eh, a partir do momento que você começa a otimizar essas
[01:54:37] que você começa a otimizar essas estruturas todas para o capitalismo, né?
[01:54:41] estruturas todas para o capitalismo, né? eh tá convidada a fazer minha disciplina
[01:54:42] eh tá convidada a fazer minha disciplina de impactos sociais e políticos no
[01:54:44] de impactos sociais e políticos no segundo semestre, outubro e novembro. A
[01:54:45] segundo semestre, outubro e novembro. A gente discute quatro futuros possíveis
[01:54:47] gente discute quatro futuros possíveis baseados nessa pergunta que você fez. Um
[01:54:50] baseados nessa pergunta que você fez. Um deles é o chamado futuro
[01:54:53] deles é o chamado futuro eh
[01:54:56] eh destrutivo.
[01:54:58] destrutivo. O futuro destrutivo é aquele em que a
[01:55:01] O futuro destrutivo é aquele em que a tecnologia ela vai ficar realmente na
[01:55:03] tecnologia ela vai ficar realmente na mão de muito poucos e o resto vai brigar
[01:55:06] mão de muito poucos e o resto vai brigar entre si por gás.
[01:55:09] entre si por gás. Comparado a isso, existe um futuro
[01:55:10] Comparado a isso, existe um futuro chamado rentista,
[01:55:12] chamado rentista, em que a gente tá vivendo parte dele
[01:55:14] em que a gente tá vivendo parte dele hoje,
[01:55:15] hoje, >> em que a gente vive emprestando e
[01:55:18] >> em que a gente vive emprestando e alugando por soluções e elas ainda estão
[01:55:20] alugando por soluções e elas ainda estão na mão de nas mãos de poucos. Existem
[01:55:23] na mão de nas mãos de poucos. Existem alguns um pouco mais interessantes, por
[01:55:25] alguns um pouco mais interessantes, por exemplo, o futuro, e eu acho totalmente
[01:55:28] exemplo, o futuro, e eu acho totalmente utópico, seria o futuro comunista, não
[01:55:30] utópico, seria o futuro comunista, não no comunismo no sentido de política que
[01:55:33] no comunismo no sentido de política que a gente conhece, mas o sentido de
[01:55:35] a gente conhece, mas o sentido de comuna. Ou seja, você tem um avanço de
[01:55:38] comuna. Ou seja, você tem um avanço de tecnologia tão grande e as coisas agora
[01:55:40] tecnologia tão grande e as coisas agora podem ser produzidas de forma tão fácil,
[01:55:42] podem ser produzidas de forma tão fácil, tão barata, que a gente pode produzir
[01:55:44] tão barata, que a gente pode produzir qualquer coisa para qualquer pessoa.
[01:55:46] qualquer coisa para qualquer pessoa. Então agora não há mais necessidades. Eu
[01:55:47] Então agora não há mais necessidades. Eu acho a chance é quase zero para esse
[01:55:50] acho a chance é quase zero para esse futuro. E a a disputa que eu acho que a
[01:55:53] futuro. E a a disputa que eu acho que a gente tá tendo hoje é se a gente vai no
[01:55:55] gente tá tendo hoje é se a gente vai no futuro destrutivo ou no rentista. São os
[01:55:58] futuro destrutivo ou no rentista. São os dois mais prováveis.
[01:56:00] dois mais prováveis. Então a gente tem que fazer de tudo para
[01:56:02] Então a gente tem que fazer de tudo para não ir no destrutivo,
[01:56:04] não ir no destrutivo, >> mas o rentista parece que tá se tornando
[01:56:06] >> mas o rentista parece que tá se tornando padrão e que tudo tem um preço e e esse
[01:56:10] padrão e que tudo tem um preço e e esse essa esse produto tá na mão de pouco.
[01:56:12] essa esse produto tá na mão de pouco. >> E aí o último aqui
[01:56:13] >> E aí o último aqui >> quea dos dois eles venceram. É, é,
[01:56:17] >> quea dos dois eles venceram. É, é, [risadas]
[01:56:18] [risadas] >> não acredito que consegui. É, mas eh eu
[01:56:21] >> não acredito que consegui. É, mas eh eu queria falar sobre essa ideia de a gente
[01:56:24] queria falar sobre essa ideia de a gente tá olhando pro ser humano, decidindo o
[01:56:26] tá olhando pro ser humano, decidindo o que pode, o que não pode ser computável
[01:56:28] que pode, o que não pode ser computável e a gente olha o papel do ser humano em
[01:56:31] e a gente olha o papel do ser humano em alhado aá como sendo aquilo que aá não
[01:56:34] alhado aá como sendo aquilo que aá não consegue fazer. E isso me lembra muito a
[01:56:36] consegue fazer. E isso me lembra muito a falar do deus lacunas, em que você tá
[01:56:39] falar do deus lacunas, em que você tá olhando e você fala: "Tá, mas o que é
[01:56:40] olhando e você fala: "Tá, mas o que é Deus?" Tudo que assim você não consegue
[01:56:42] Deus?" Tudo que assim você não consegue explicar.
[01:56:43] explicar. >> Aham. E eu acho que essa abordagem ela é
[01:56:45] >> Aham. E eu acho que essa abordagem ela é muito perigosa, porque você pode começar
[01:56:48] muito perigosa, porque você pode começar a evoluir as coisas e mas cada vez menos
[01:56:51] a evoluir as coisas e mas cada vez menos espaço. E eu acredito veementemente que
[01:56:55] espaço. E eu acredito veementemente que o mais responsável é se fazer é você
[01:56:58] o mais responsável é se fazer é você definir ética é isso. Seja uma definição
[01:57:02] definir ética é isso. Seja uma definição difícil, ela é melhor do que a ausência
[01:57:06] difícil, ela é melhor do que a ausência de água, a não computabilidade.
[01:57:08] de água, a não computabilidade. É porque caso contrário a gente acaba
[01:57:12] É porque caso contrário a gente acaba entrando
[01:57:14] entrando em uma nãoação de manhã. Em algumas pode
[01:57:17] em uma nãoação de manhã. Em algumas pode chegar, você pode falar: "Ah, se tornou
[01:57:19] chegar, você pode falar: "Ah, se tornou o ADI a partir de agora". E claro, tem
[01:57:21] o ADI a partir de agora". E claro, tem aquela questão da ADI modelar o próprio
[01:57:24] aquela questão da ADI modelar o próprio conceito do que é o ADI. você começa a
[01:57:26] conceito do que é o ADI. você começa a tentar eh adaptar aquilo para se tornar
[01:57:29] tentar eh adaptar aquilo para se tornar o que é atualmente,
[01:57:31] o que é atualmente, mas isso se torna insustentável a longo
[01:57:35] mas isso se torna insustentável a longo prazo, porque não existe uma garantia
[01:57:39] prazo, porque não existe uma garantia para um ser humano. Pergunta o que ela
[01:57:41] para um ser humano. Pergunta o que ela consegue fazer, quer dizer que ela
[01:57:42] consegue fazer, quer dizer que ela consegue fazer bem ou da mesma forma que
[01:57:44] consegue fazer bem ou da mesma forma que ser humano faz, porque a Bible não é o
[01:57:47] ser humano faz, porque a Bible não é o traçado da GB. A G [roncando]
[01:57:49] traçado da GB. A G [roncando] é
[01:57:51] é constituída pelos filmes, pelo contexto,
[01:57:54] constituída pelos filmes, pelo contexto, pelas pessoas que estavam lá, história,
[01:57:56] pelas pessoas que estavam lá, história, >> a história que estava envolvida. Então
[01:57:58] >> a história que estava envolvida. Então você consegue dissociar essas duas
[01:57:59] você consegue dissociar essas duas coisas, assim como você não consegue
[01:58:01] coisas, assim como você não consegue dissociar a decisão ética de uma pessoa,
[01:58:04] dissociar a decisão ética de uma pessoa, a lógica dela da pessoa em si. E isso,
[01:58:08] a lógica dela da pessoa em si. E isso, essa pessoalidade você não consegue
[01:58:10] essa pessoalidade você não consegue atribuir necessariamente a IA. Eu acho
[01:58:12] atribuir necessariamente a IA. Eu acho que quando você parte desse princípio e
[01:58:15] que quando você parte desse princípio e você olha para pro resultado, não
[01:58:17] você olha para pro resultado, não somente como o que foi gerado, mas o
[01:58:20] somente como o que foi gerado, mas o processo pelo qual ele foi gerado,
[01:58:23] processo pelo qual ele foi gerado, >> com certeza
[01:58:24] >> com certeza >> isso toma uma dimensão completamente
[01:58:25] >> isso toma uma dimensão completamente diferente, porque por definição a
[01:58:28] diferente, porque por definição a inteligência artificial não consegue
[01:58:29] inteligência artificial não consegue gerar algo natural, mesmo que ela
[01:58:32] gerar algo natural, mesmo que ela consiga codificar a empatia ou codificar
[01:58:35] consiga codificar a empatia ou codificar a ética, a ética que ela utiliza não tem
[01:58:38] a ética, a ética que ela utiliza não tem rosto.
[01:58:39] rosto. >> Uhum.
[01:58:40] >> Uhum. muito bem colocadas e é uma ótima forma
[01:58:43] muito bem colocadas e é uma ótima forma de nós encerrarmos hoje
[01:58:46] de nós encerrarmos hoje com uma colocação final. Na minha
[01:58:49] com uma colocação final. Na minha disciplina, eh, acho que no último
[01:58:52] disciplina, eh, acho que no último semestre eu fiz essa pergunta.
[01:58:55] semestre eu fiz essa pergunta. >> E se formos nessa direção que ele tá
[01:58:57] >> E se formos nessa direção que ele tá colocando aqui, que que tá sendo
[01:58:59] colocando aqui, que que tá sendo colocado aqui de que
[01:59:02] colocado aqui de que a IA se desenvolve tanto e a gente é
[01:59:05] a IA se desenvolve tanto e a gente é deixado para irrelevância, vocês
[01:59:07] deixado para irrelevância, vocês gostariam de viver nesse mundo?
[01:59:10] gostariam de viver nesse mundo? ou no mundo em que a gente volta ao que
[01:59:13] ou no mundo em que a gente volta ao que a Paula fez lá na primeira pergunta, no
[01:59:15] a Paula fez lá na primeira pergunta, no mundo natural em que a gente vive em
[01:59:19] mundo natural em que a gente vive em comunidades e não tem tecnologia alguma.
[01:59:21] comunidades e não tem tecnologia alguma. Surpreendentemente,
[01:59:23] Surpreendentemente, praticamente toda a turma respondeu que
[01:59:25] praticamente toda a turma respondeu que era retornar ao passado.
[01:59:28] era retornar ao passado. Obrigado.
[01:59:31] Obrigado. [aplausos]
Inteligência Artificial e Florescimento Humano: Reclamando a Tecnologia para a Humanidade
https://www.youtube.com/watch?v=VnY8I7mMZcc
Translation: en
[00:24] Bom, boa tarde a todos.
[00:27] Bom, boa tarde a todos.
[00:27] É uma alegria receber hoje o professor Anderson aqui como palestrante.
[00:31] Ele é professor titular aqui do Instituto de Computação e coordenador do laboratório Record, né,
[00:37] que temos hoje aqui uma presença muito especial do pessoal do laboratório.
[00:42] Ele tem o reconhecimento pela I3E, tanto como fellow como distinguish lecturer.
[00:48] E a pesquisa dele envolve inteligência artificial, visão computacional e segurança da informação com aplicações em ciência e forência digital.
[00:57] Então, obrigada.
[00:58] Obrigada.
[01:02] Bom, pessoal, boa tarde.
[01:04] Bom, pessoal, boa tarde.
[01:04] Obrigado pela presença.
[01:07] Obrigado a vocês que estão acompanhando online também.
[01:09] É um prazer eh falar com vocês.
[01:12] Essa palestra é a primeira vez que eu vou apresentar.
[01:13] Ela foi preparada eh baseado em alguns estudos que eu tenho feito.
[01:18] Eh, eu preciso dizer que ela pode ser provocadora para algumas pessoas aqui, porque normalmente quando a gente
[01:26] aqui, porque normalmente quando a gente pensa em ciência artificial, a gente pensa em ciência artificial, a gente pensa muito a parte técnica, né?
here, because normally when we think about artificial intelligence, we think about artificial intelligence, we think a lot about the technical part, right?
[01:31] né? Principalmente as pessoas que estão comigo no laboratório, fala muito da parte técnica, como que a gente implementa e a às vezes a gente esquece que existe um contexto muito maior, né, no mundo de hoje.
right? Mainly the people who are with me in the laboratory, talk a lot about the technical part, how we implement it and sometimes we forget that there is a much larger context, right, in today's world.
[01:42] E em particular, gostaria que ao final vocês entendessem qual é esse contexto em relação à inteligência artificial.
And in particular, I would like you to understand at the end what this context is in relation to artificial intelligence.
[01:48] Esse contexto, então, ele envolve escolhas que nós fazemos todos os dias, eh, e com impactos, não só nas gerações, eh, que nós temos hoje, mas nas gerações futuras, tá?
This context, then, involves choices that we make every day, uh, and with impacts, not only on the generations, uh, that we have today, but on future generations, okay?
[02:06] Então, eu chamei eh de inteligência artificial, florescimento humano, uma forma de reclamar tecnologia paraa humanidade.
So, I called it uh artificial intelligence, human flourishing, a way to reclaim technology for humanity.
[02:11] H, e que que nós vamos falar aqui hoje, né?
H, and what are we going to talk about here today, right?
[02:15] Primeira coisa que eu gostaria de deixar claro para vocês, talvez quem tá eh atuando com IA tenha isso em mente, mas talvez isso não seja claro para todo
First thing I would like to make clear to you, maybe those who are uh working with AI have this in mind, but maybe this is not clear to everyone
[02:27] talvez isso não seja claro para todo mundo.
Perhaps this is not clear to everyone.
[02:29] mundo.
world.
[02:29] E não é uma ferramenta,
And it is not a tool,
[02:31] E não é uma ferramenta, tá?
And it is not a tool, okay?
[02:33] Essa é a primeira coisa.
This is the first thing.
[02:33] Ela não é [roncando] um martelo, ela é uma
It is not [snoring] a hammer, it is a
[02:36] [roncando] um martelo, ela é uma tecnologia de propósito geral.
[snoring] a hammer, it is a general-purpose technology.
[02:39] Isso é a primeira coisa que você tem que guardar.
This is the first thing you have to remember.
[02:41] Isso significa que ela é uma GPT, não o
This means that it is a GPT, not the
[02:44] GPT do chat, tá?
chat GPT, okay?
[02:44] é uma general purpose technology
it is a general purpose technology
[02:47] e a humanidade só fez 21 tecnologias
and humanity has only made 21 technologies
[02:48] gerais até hoje.
general ones to date.
[02:52] A IA é a 22ª
AI is the 22nd
[02:55] e justamente por ser uma tecnologia de
and precisely because it is a technology
[02:58] propósito geral, ela traz implicações
of general purpose, it brings implications
[02:59] muito grandes na nossa vida.
very large in our lives.
[03:01] Então, alguns exemplos para vocês
So, some examples for you
[03:05] colocarem no contexto aqui do que que
to put into context here of what
[03:07] nós chamamos de tecnologia de propósito
we call general-purpose technology.
[03:09] geral.
general.
[03:11] Eletricidade.
Electricity.
[03:13] Eletricidade.
Electricity.
[03:15] Eletricidade é a primeira, ela
Electricity is the first one, it
[03:17] transformou
transformed
[03:19] a forma como a gente produz de maneira
the way we produce in general
[03:22] geral e como a gente vive o nosso
and how we live our
[03:24] cotidiano.
daily lives.
[03:24] A primeira tecnologia que eu trouxe aqui como exemplo, não é a
The first technology I brought here as an example, is not the
[03:28] trouxe aqui como exemplo, não é a primeira que nós criamos, né?
brought here as an example, it's not the first one we created, right?
[03:30] Mas a primeira, como exemplo de tecnologia de proposta geral é a eletricidade.
But the first one, as an example of a general-purpose technology, is electricity.
[03:34] A segunda é imprensa.
The second is the printing press.
[03:37] Então a imprensa democratizou o acesso ao conhecimento.
So the printing press democratized access to knowledge.
[03:41] Então ela tem um propósito muito maior.
So it has a much larger purpose.
[03:44] Ela tem essa classificação como tecnologia de de propósito geral, justamente porque ela tem um impacto muito grande em diferentes áreas, tá?
It has this classification as a general-purpose technology, precisely because it has a very large impact in different areas, okay?
[03:54] A internet eh mudou a forma como nós nos conectamos, como nós acessamos a informação, como nós compartilhamos a informação, como nós conversamos e acessamos outras pessoas.
The internet eh changed the way we connect, how we access information, how we share information, how we converse and access other people.
[04:06] E a inteligência artificial nesse contexto é trazida como uma tecnologia também de propósito geral, mas é a primeira vez na história que nós temos uma tecnologia que afeta, interage diretamente com a cognição, tá?
And artificial intelligence in this context is brought as a general-purpose technology as well, but it's the first time in history that we have a technology that affects, directly interacts with cognition, okay?
[04:22] Nós nunca tivemos uma tecnologia em que era possível conversar com o software.
We have never had a technology where it was possible to converse with the software.
[04:30] software.
software.
[04:30] Hoje é possível conversar com software.
Today it is possible to talk to software.
[04:33] Hoje é possível conversar com software.
Today it is possible to talk to software.
[04:35] É tão natural hoje, principalmente para as novas gerações, que eu tenho visto algumas crianças, elas vem uma caixinha de texto, elas já acham que podem interagir, já tá ficando natural 7, 8 anos.
It is so natural today, especially for the new generations, that I have seen some children, they see a small text box, they already think they can interact, it's already becoming natural for 7, 8 year olds.
[04:48] anos.
years.
[04:48] tem um sinalzinho do microfone, a criança já espera ser capaz de de ditar e esperar uma resposta.
there is a little microphone sign, the child already expects to be able to dictate and wait for a response.
[04:54] Então, a Iá tá vindo como a nossa 22ª tecnologia de propósito geral.
So, AI is coming as our 22nd general-purpose technology.
[05:01] E o que que isso significa, né?
And what does that mean, right?
[05:04] Existem tecnologias que alteram setores muito específicos e tem outras que trazem toda uma reestruturação da sociedade, da economia.
There are technologies that alter very specific sectors and there are others that bring about a complete restructuring of society, of the economy.
[05:13] E trazer aqui o entendimento que a IA se encaixa justamente nessa segunda parte é importantíssimo pra gente formular políticas públicas e estratégias empresariais à altura do momento que nós vivemos.
And bringing here the understanding that AI fits precisely into this second part is very important for us to formulate public policies and business strategies commensurate with the moment we live in.
[05:29] Então, como eu trouxe para vocês, nós
So, as I brought to you, we
[05:30] Então, como eu trouxe para vocês, nós tivemos vários exemplos ao longo da nossa história, como a máquina a vapor.
So, as I brought to you, we have had several examples throughout our history, like the steam engine.
[05:34] É uma tecnologia específica, não, super de propósito geral, ela aumentou a nossa capacidade de força, ela permitiu a industrialização.
It is a specific technology, not, super general purpose, it increased our strength capacity, it allowed industrialization.
[05:45] A eletricidade, ela reorganizou totalmente as fábricas.
Electricity, it totally reorganized the factories.
[05:51] Não sei se vocês sabem, mas antes da eletricidade, quando você fazia uma fábrica, ela tinha, primeira coisa, tinha que estar do lado de um rio.
I don't know if you know, but before electricity, when you made a factory, it had, first thing, it had to be next to a river.
[05:57] Se ela não tivesse do lado de um rio, não tinha como gerar energia.
If it wasn't next to a river, there was no way to generate energy.
[06:00] Isso fazia com que todas as máquinas ficassem na borda da fábrica para ter conexão com o rio.
This caused all the machines to be on the edge of the factory to have a connection with the river.
[06:08] Com a eletricidade, você permite a miniaturização das máquinas e você permite também que as fábricas estivessem em qualquer configuração e estivesse em qualquer lugar.
With electricity, you allow the miniaturization of machines and you also allow factories to be in any configuration and be anywhere.
[06:17] O motor de combustão permite a mobilidade e a logística e muda a forma de distribuição de cadeias de global.
The combustion engine allows mobility and logistics and changes the way global supply chains are distributed.
[06:26] Semicondutoras não preciso nem falar, né?
Semiconductors, I don't even need to mention, right?
[06:27] Maior parte das pessoas aqui é de computação, então permite a computação
Most of the people here are from computing, so it allows computing
[06:32] computação, então permite a computação pessoal e a revolução digital.
[06:35] pessoal e a revolução digital.
[06:37] E a internet traz a comunicação instantânea e a economia de plataformas.
[06:43] E o que que define uma GPT?
[06:46] Por que que como é que você pode chamar uma tecnologia como de propósito geral?
[06:49] tecnologia como de propósito geral?
[06:50] Primeira coisa, ela tem que ter uma aplicação transversal.
[06:53] aplicação transversal.
[06:55] Ela tem que penetrar em praticamente todos os setores da economia, da saúde à agricultura, finanças e defesa.
[07:02] agricultura, finanças e defesa.
[07:05] Ela tem que ter melhoria contínua, ou seja, ela não pode ser estática.
[07:07] Fiz um martelo, ele tá pronto.
[07:09] A tecnologia de propósito geral, ela melhora continuamente, ela aprimora-se ao longo do tempo à medida que acumula dados, computação e pesquisa.
[07:16] computação e pesquisa.
[07:17] >> [roncando] >>
[07:20] E terceiro, ela leva a inovações complementares em outras áreas.
[07:23] Por exemplo, ela estimula e acelera outras inovações ao redor, criando um ecossistema inteiro de novas tecnologias.
[07:28] ecossistema inteiro de novas tecnologias.
[07:31] É por isso que a IA é colocada aqui como uma tecnologia de
[07:34] colocada aqui como uma tecnologia de proposta geral.
[07:35] E essa discussão vem nos últimos 2 anos, tá?
[07:38] Porque até o grande avanço que nós tivemos de e a generativa a partir do ano de 2018, 2019, ela ainda não era muito bem classificada como tecnologia de propósito geral, mas agora ela já tá indo nessa direção.
[07:54] Só para vocês terem mais um pouco de contexto, vamos falar um pouquinho da eletricidade, para vocês verem o impacto disso.
[07:59] A eletricidade ela reorganizou fábricas, cidades e infraestrutura da vida moderna.
[08:05] Então, ela trouxe uma transformação civilizatória.
[08:09] Só para vocês terem uma ideia, eu trouxe aqui, eu fiz essa foto não faz muito tempo, da feira da eletricidade, eh, no Museu de Arte Moderna de Paris.
[08:19] É um painel de mais de 15 m que busca mostrar como que a eletricidade mudou a vida das pessoas.
[08:26] Então, só para vocês terem uma ideia, olha só, antes da eletricidade a gente tinha uma vida mais ou menos campestre, era baseado na agricultura, as pessoas
[08:34] Era baseado na agricultura, as pessoas usavam a tudo, era baseado na própria força das pessoas ou dos animais.
[08:40] Com isso, assim que começa a aparecer a eletricidade, nós somos capazes de desenvolver as fábricas, somos capazes de distribuir energia e, a partir disso utilizar eletricidade para iluminação e para produção de outras indústrias, até mesmo a criação do avião.
[09:02] Esse trabalho foi encomendado para esse artista R Buff justamente para mostrar como a eletricidade mudou a vida das pessoas.
[09:10] Isso leva a novas invenções.
[09:12] Por exemplo, aqui nós temos vários inventores e e isso permitiu, a eletricidade permitiu que nós conseguíssemos avançar diferentes campos, inclusive nascendo uma ciência, né, um um uma engenharia associada à eletricidade, que é engenharia elétrica, responsável por várias inovações na nossa história, vindo justamente porque se inventou a eletricidade.
[09:35] se inventou a eletricidade.
[09:39] E aí nós chegamos à cidades, temos até sinalização urbana, a forma como nós interagimos, adquirimos o domínio da noite, podemos eh aumentar os mudar os os turnos de trabalho, tudo isso mudou a sociedade.
[09:55] E trazendo nesse contexto, eu gostaria de colocar agora a diferença fundamental com esse tipo de tecnologia quando nós estamos falando dessa 22ª tecnologia de propósito geral, que é a IA.
[10:06] pela primeira vez, então nós temos a construção de máquinas que automatizam a cognição, enquanto todas as outras automatizavam basicamente a força.
[10:16] Então agora não é mais a força física ou repetição mecânica.
[10:19] Nós temos funções intelectuais.
[10:21] Aqui é que tá a grande diferença.
[10:23] Então agora a gente tem condição de fazer percepção.
[10:27] Então a percepção é como nós capturamos a informação do mundo.
[10:28] Isso pode ser feito pela visão, pela audição, pela leitura de sinais do ambiente.
[10:35] Nós fazemos previsão, então a capacidade
[10:38] Nós fazemos previsão, então a capacidade de antecipar eventos.
[10:40] de antecipar eventos.
[10:43] Classificação, nós conseguimos fazer a categorização de eventos, padrões complexos em grande escala.
[10:47] complexos em grande escala.
[10:49] Linguagem, compreensão e geração de textos, fala e código.
[10:54] código e decisão assistida,
[10:57] e decisão assistida, [roncando] em que nós temos o suporte a escolhas complexas, cruzamento de múltiplas coleções de dados em grande quantidade quantidade para nos ajudar a tomar decisões.
[11:07] Então, olha só, pela primeira vez nós temos algo que mexe com aquilo que inerentemente a gente pensava que era apenas humano.
[11:15] a ou de alguns poucos animais em algumas categorias, a capacidade de antever eventos, a capacidade de linguagem, a capacidade de desenvolver desenvolvimento de código, a decisão assistida para situações complexas e a forma de percepção do ambiente em múltiplos múltiplos lados.
[11:40] Isso vem num momento em que isso não tá.
[11:41] Isso vem num momento em que isso não tá acontecendo só relacionado ao mundo digital.
[11:44] Nós estamos vivendo, eu já falei aqui numa palestra anterior sobre a revolução da convergência.
[11:51] junto com a e a nós temos um grande desenvolvimento nessas cinco frentes aqui no mundo digital com os bits.
[12:02] Nós temos a IA, temos uma total mudança em como a gente desenvolve eh software e onde a gente executa praticamente toda a computação moderna na nuvem.
[12:16] Nós temos uma revolução do mundo de pesquisa de materiais e de manufatura inteligente.
[12:24] Neurociência tá tendo avanços surpreendentes nos últimos anos, principalmente na linha de interface cérebro máro.
[12:32] Essa é uma das áreas que depois da IA praticamente é a que vai que está dominando a nossa década e provavelmente a próxima, a biotecnologia e a engenharia genética.
[12:39] Nós temos aqui
[12:41] engenharia genética.
genetic engineering.
[12:41] Nós temos aqui pesquisa em longevidade, nós temos pesquisa em longevidade, nós temos pesquisa em identificação de doenças,
We have here research in longevity, we have research in longevity, we have research in disease identification,
[12:45] pesquisa em identificação de doenças, identificação de doenças raras, novos
research in disease identification, identification of rare diseases, new
[12:48] identificação de doenças raras, novos medicamentos, predição de dobradura de
identification of rare diseases, new drugs, prediction of folding of
[12:51] medicamentos, predição de dobradura de de dobra de proteína, tudo isso aqui em
drugs, prediction of folding of protein folding, all of this here in
[12:54] de dobra de proteína, tudo isso aqui em G, genes
protein folding, all of this here in G, genes
[12:56] G, genes e na interação entre todos esses temas
G, genes and in the interaction between all these themes
[12:58] e na interação entre todos esses temas de sociedade, ou seja, a gente tem a
and in the interaction between all these themes of society, that is, we have the
[13:00] de sociedade, ou seja, a gente tem a mudança das instituições.
of society, that is, we have the change of institutions.
[13:02] Então, isso é o que nós chamamos de convergência
So, this is what we call convergence
[13:04] o que nós chamamos de convergência banks.
what we call convergence banks.
[13:07] E aí, nesse interim, principalmente nos
And then, in the meantime, especially in
[13:10] E aí, nesse interim, principalmente nos últimos anos, tem essa pergunta.
And then, in the meantime, especially in recent years, there is this question.
[13:14] E aí nós estamos em direção, nós estamos indo
And then we are in the direction, we are going
[13:16] nós estamos em direção à inteligência artificial
we are in the direction of artificial intelligence
[13:18] em direção à inteligência artificial geral, ai.
towards general artificial intelligence, ai.
[13:21] geral, ai.
general, ai.
[13:21] Então, antes da gente continuar, um quiz rápido.
So, before we continue, a quick quiz.
[13:24] Quem acha que a gente tá indo na
Who thinks we are going in
[13:26] rápido. Quem acha que a gente tá indo na direção da ID, levanta a mão.
quick. Who thinks we are going in the direction of ID, raise your hand.
[13:32] OK.
OK.
[13:33] OK.
OK.
[13:33] Quem acha que a gente vai chegar em
Who thinks we will arrive at
[13:35] Quem acha que a gente vai chegar em algum momento na Edi?
Who thinks we will arrive at Edi at some point?
[13:39] algum momento na Edi?
at some point in Edi?
[13:39] Já aumentou, né?
It has already increased, right?
[13:40] E quem acha que a gente nunca vai
And who thinks we will never
[13:42] né?
né?
[13:42] E quem acha que a gente nunca vai chegar?
And who thinks we will never arrive?
[13:44] chegar?
arrive?
[13:44] Ah, muito bom.
Ah, very good.
[13:48] Bom, só uma dica que eu aprendi muito cedo com os meus pais é a palavra sempre e nunca são complicadas, tá?
Well, just one tip that I learned very early from my parents is that the words always and never are complicated, okay?
[13:54] Então, sempre que alguém eh perguntar para vocês, pensem um pouco sobre essas duas palavrinhas.
So, whenever someone asks you, think a little about these two little words.
[13:59] Eh, o que que é?
Eh, what is it?
[14:02] Primeiro é inteligência artificial capaz, tá?
First is capable artificial intelligence, okay?
[14:07] Vou mostrar para vocês a definição daqui a pouco.
I will show you the definition shortly.
[14:11] E ai, inteligência artificial geral.
And then, general artificial intelligence.
[14:15] Só que não, isso não é eh randômico, não é aleatório esses termos.
But no, this is not eh random, these terms are not random.
[14:21] Eu vou definir para vocês.
I will define them for you.
[14:23] E se você tivesse conversado comigo 10 anos atrás ou feito disciplina comigo 10 anos atrás, a minha opinião seria diferente sobre ACI e ADI.
And if you had talked to me 10 years ago or taken a course with me 10 years ago, my opinion would be different about ACI and ADI.
[14:30] 5 anos atrás ela seria diferente.
5 years ago it would be different.
[14:35] Hoje eu tenho uma visão muito mudada em
Today I have a very changed view on
[14:42] Eu tenho uma visão muito mudada em relação ao que que tá acontecendo.
I have a very changed view regarding what is happening.
[14:46] Relação ao que que tá acontecendo.
Regarding what is happening.
[14:47] Isso principalmente porque a gente humano, a gente é acostumado a ter um horizonte de tempo dentro de 2 a 10 anos no máximo quando a gente faz qualquer plano.
This is mainly because we humans are accustomed to having a time horizon of 2 to 10 years at most when we make any plan.
[14:51] Horizonte de tempo dentro de 2 a 10 anos no máximo quando a gente faz qualquer plano.
Time horizon of 2 to 10 years at most when we make any plan.
[14:53] No máximo quando a gente faz qualquer plano.
At most when we make any plan.
[14:56] Mas todos os avanços que nós temos na IA hoje em termos da IA moderna, eles aconteceram nos últimos 60 anos.
But all the advances we have in AI today in terms of modern AI, they happened in the last 60 years.
[14:58] Mas todos os avanços que nós temos na IA hoje em termos da IA moderna, eles aconteceram nos últimos 60 anos.
But all the advances we have in AI today in terms of modern AI, they happened in the last 60 years.
[15:00] Hoje em termos da IA moderna, eles aconteceram nos últimos 60 anos.
Today in terms of modern AI, they happened in the last 60 years.
[15:05] Aconteceram nos últimos 60 anos.
They happened in the last 60 years.
[15:09] Foram só 60 anos, imagine 500 anos daqui no futuro.
It was only 60 years, imagine 500 years from now in the future.
[15:13] Imagine 500 anos daqui no futuro.
Imagine 500 years from now in the future.
[15:14] Então, a pergunta fica muito mais complexa.
So, the question becomes much more complex.
[15:15] Eu quero mostrar para vocês porquê.
I want to show you why.
[15:18] Então, a primeira coisa que a gente tem que ter em mente é que precisamos definir o alvo com um pouco mais de precisão.
So, the first thing we need to keep in mind is that we need to define the target with a little more precision.
[15:19] Que ter em mente é que precisamos definir o alvo com um pouco mais de precisão.
To keep in mind is that we need to define the target with a little more precision.
[15:21] Precisão. Adiência em benchmarks específicos isolados, tá?
Precision. Performance in specific isolated benchmarks, okay?
[15:23] Adiência em benchmarks específicos isolados, tá?
Performance in specific isolated benchmarks, okay?
[15:25] Então, ah, eu quebrei a prova do ITA e eu passei com nota total na prova do ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
So, ah, I broke the ITA exam and I passed with a perfect score on the ITA exam, as some of these models test, or I won the World Mathematics Olympiad, as happened last year with Cloud.
[15:29] Então, ah, eu quebrei a prova do ITA e eu passei com nota total na prova do ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
So, ah, I broke the ITA exam and I passed with a perfect score on the ITA exam, as some of these models test, or I won the World Mathematics Olympiad, as happened last year with Cloud.
[15:32] Eu quebrei a prova do ITA e eu passei com nota total na prova do ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
I broke the ITA exam and I passed with a perfect score on the ITA exam, as some of these models test, or I won the World Mathematics Olympiad, as happened last year with Cloud.
[15:34] Eu passei com nota total na prova do ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
I passed with a perfect score on the ITA exam, as some of these models test, or I won the World Mathematics Olympiad, as happened last year with Cloud.
[15:37] ITA, como alguns desses modelos testam, ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
ITA, as some of these models test, or I won the World Mathematics Olympiad, as happened last year with Cloud.
[15:39] Ou eu ganhei a Olimpíada Mundial de Matemática, como aconteceu o ano passado com o Cloud.
Or I won the World Mathematics Olympiad, as happened last year with Cloud.
[15:40] Matemática, como aconteceu o ano passado com o Cloud.
Mathematics, as happened last year with Cloud.
[15:42] com o Cloud, não é dataset específico, não é dataset específico, não é benchmark específica.
With the Cloud, it's not a specific dataset, it's not a specific dataset, it's not a specific benchmark.
[15:47] Nós precisamos ter três coisas, principalmente competência tem que ser geral e adaptativa.
We need to have three things, mainly competence has to be general and adaptive.
[15:55] Ou seja, se você tem uma técnica, um algoritmo, um software que é dito ADI, ele tem que ter competência geral e adaptativa, ou seja, ele tem que funcionar em múltiplos domínios sem treinamento ou com adaptação mínima.
In other words, if you have a technique, an algorithm, a software that is called ADI, it has to have general and adaptive competence, in other words, it has to work in multiple domains without training or with minimal adaptation.
[16:12] Isso é a primeira coisa.
This is the first thing.
[16:14] Segundo, transferência robusta, desempenho mantido em contextos genuinamente novos.
Second, robust transfer, performance maintained in genuinely new contexts.
[16:21] Não é ser capaz de jogar xadrez e aquilo transferir para o Go e do Go ser transferido pro xadrez japonês, por exemplo, que é XJi, né?
It's not being able to play chess and then transfer that to Go and from Go be transferred to Japanese chess, for example, which is XJi, right?
[16:30] Não é isso?
Isn't that it?
[16:34] Isso é ótimo.
This is great.
[16:36] É um avanço de ciência e engenharia importante, mas para ser ADI precisa resolver problemas em domínios diferentes.
It's an important advancement in science and engineering, but to be ADI it needs to solve problems in different domains.
[16:39] E terceiro,
And third,
[16:44] E terceiro, eficiência comparável, ou seja, nesses diferentes domínios, sem dependência excessiva de escala, ou seja, eu preciso de todos os dados da internet e sem scaffolding, ou seja, sem usar outras muitas ferramentas eh colaterais.
And third, comparable efficiency, that is, in these different domains, without excessive dependence on scale, that is, I need all the data from the internet and without scaffolding, that is, without using many other collateral tools.
[17:01] Então, a tese central é que a fronteira atual mostra sinal de maior generalidade.
So, the central thesis is that the current frontier shows a sign of greater generality.
[17:05] Isso é fato.
This is a fact.
[17:07] Se você se recusa a ver isso, eu sugiro que você estude um pouco mais.
If you refuse to see this, I suggest you study a little more.
[17:11] A está muito avançada hoje e já mostra sinais de generalidade, mas ainda com forte dependência de escala, de ferramentas externas e ambientes controlados ou semicontrolados, tá?
A is very advanced today and already shows signs of generality, but still with strong dependence on scale, external tools, and controlled or semi-controlled environments, okay?
[17:31] Mas nós tivemos em 2023 a 2025 cinco movimentos importantíssimos que eram considerados barreiras pra gente dizer que está indo na direção da ID.
But we had in 2023 to 2025 five very important movements that were considered barriers for us to say that it is going in the direction of AI.
[17:43] Primeiro, raciocínio deliberado.
First, deliberate reasoning.
[17:47] Primeiro, raciocínio deliberado.
[17:49] Então, infers time compute, computação em tempo de inferência.
[17:52] modelos hoje que a gente vai usar a palavra um pouco forçada, pensam um pouco mais aqui,
[17:56] melhora em matemática, código e problemas multi etapas.
[18:00] Isso já acontece hoje.
[18:02] Nós temos hoje a capacidade de interpretar um prompt e executar uma tarefa que o usuário espera que seja executada como desenvolvimento de código.
[18:08] E não é código alô mundo, não é código sofisticado, tá?
[18:14] Então é inferência em tempo de computação, em tempo de execução.
[18:18] Isso é importante, é uma barreira que nós temos vencido.
[18:21] Segundo, multimodalidade nativa.
[18:24] Se você tá indo na direção de computação geral, ou seja, de resolver problemas de maneira geral, você precisa ser capaz de atuar em múltiplas modalidades.
[18:34] E a multimodalidade hoje é nativa, ou seja, nós temos a integração orgânica hoje nesses modelos de imagem, de texto, de áudio, vídeo e código.
[18:46] Então, considere modelos como GPT5, o
[18:49] Então, considere modelos como GPT5, o Gemini 2.5 ou Cloud.
[18:53] Gemini 2.5 ou Cloud.
[18:54] Então, a segunda grande barreira que nós tínhamos entre o período de 23 a 25 foi vencida.
[19:00] Terceira barreira, agentes.
[19:04] Terceira barreira, agentes.
[19:06] Durante muito tempo na IA, a gente foi capaz de resolver problemas como classificação de padrões, diferenciar uma doença de outra, eh fazer classificação industrial, que é onde tem impacto, verificar se tem defeito ou não tem defeito.
[19:18] Muito bem. Mas isso não era agir no mundo, tá?
[19:21] Inteligência implica agir no mundo.
[19:24] Não é só resolver algo num modelo eh digamos na cabeça, no no modelo de software, é você uma vez tendo uma resposta ir no mundo atuar e pegar a resposta.
[19:36] Então agora a gente tem um grande avanço nessa no sentido de agir.
[19:38] E os agentes com ferramentas hoje navegam a web, executam o código, manipulam o arquivo, eles eh fazem desde
[19:50] manipulam o arquivo, eles eh fazem desde o responder alguma coisa até o agir para o responder alguma coisa até o agir para fazer para para ter a solução de um fazer para para ter a solução de um problema.
[19:58] Mas ainda no mundo digital. Ele age no mundo, sim, mas ainda a maior parte das ações no mundo digital.
[20:02] Planejar uma viagem, eh reservar hotel, ajudar no desenvolvimento de código.
[20:13] Beleza? O próximo passo é a corporificação, ou seja, você ter o agente capaz de agir no mundo real.
[20:19] Pode ser via robô, pode ser via um carro autônomo, mas agir no mundo real.
[20:24] Isso ainda nós estamos atrasados.
[20:29] contexto. Quem usou as primeiras versões desses modelos sabiam que o contexto era muito pequeno.
[20:32] Às vezes você começava a conversar e e o modelo se perdia, já não sabia o assunto que você estava falando.
[20:37] Gente, para 10 minutos e interage com um desses modelos hoje.
[20:42] Interage com o chat e ou com o Cloud ou com Gemini última versão.
[20:47] Verifica o quanto tempo ele consegue manter uma conversação sem perder o contexto.
[20:52] às vezes dias sem perder o contexto.
[20:57] às vezes dias sem perder o contexto. Então ele tem um contexto muito mais
[20:58] Então ele tem um contexto muito mais longo. O contexto de hoje, em apenas
[21:02] longo. O contexto de hoje, em apenas 3 anos, ele já tá em 1 milhão de tokens.
[21:06] 3 anos, ele já tá em 1 milhão de tokens. Vamos aproximar aqui a definição de
[21:07] Vamos aproximar aqui a definição de token para palavra.
[21:10] token para palavra. 1 milhão de palavras.
[21:13] 1 milhão de palavras. E pela velocidade que nós estamos indo,
[21:15] E pela velocidade que nós estamos indo, não se assustem. Ao final de 2026, isso
[21:17] não se assustem. Ao final de 2026, isso aqui talvez esteja no dobro, pelo menos.
[21:22] aqui talvez esteja no dobro, pelo menos. E há estudos que mostram que dentro de
[21:24] E há estudos que mostram que dentro de 10 anos nós vamos ter uma janela de
[21:26] 10 anos nós vamos ter uma janela de contexto tão longa
[21:28] contexto tão longa que nem vai ser mais sentido, vai ter
[21:30] que nem vai ser mais sentido, vai ter sentido a discussão de janela de
[21:32] sentido a discussão de janela de contexto.
[21:36] E último ponto, nós estamos dando os
[21:39] E último ponto, nós estamos dando os primeiros passos aí dos cinco que estão
[21:41] primeiros passos aí dos cinco que estão aqui, o mais atrasado é esse, nos
[21:43] aqui, o mais atrasado é esse, nos chamados modelos de mundo. modelos de
[21:45] chamados modelos de mundo. modelos de mundo são aqueles modelos para entender,
[21:48] mundo são aqueles modelos para entender, por exemplo, sensos comum, entender a
[21:50] por exemplo, sensos comum, entender a física do mundo físico, tá? Primeiro,
[21:52] física do mundo físico, tá? Primeiro, sinais convincentes de que nós podemos
[21:54] sinais convincentes de que nós podemos fazer planejamento em um ambiente
[21:56] fazer planejamento em um ambiente interativo, dinâmico, competitivo ou
[21:59] interativo, dinâmico, competitivo ou cooperativo e transferir o que você
[22:02] cooperativo e transferir o que você aprende para o mundo físico. Então, nós
[22:04] aprende para o mundo físico. Então, nós tivemos cinco grandes avanços. Tá sendo
[22:06] tivemos cinco grandes avanços. Tá sendo fantástico. Eu sempre gostei de
[22:10] fantástico. Eu sempre gostei de até que eu comecei trabalhar com IA em
[22:11] até que eu comecei trabalhar com IA em 2001
[22:13] 2001 e sou professor da Unicamp há 17 anos e
[22:16] e sou professor da Unicamp há 17 anos e eu nunca vivi um momento em que tanta
[22:20] eu nunca vivi um momento em que tanta coisa legal tá acontecendo ao mesmo
[22:21] coisa legal tá acontecendo ao mesmo tempo
[22:23] tempo e também tanta coisa preocupante
[22:24] e também tanta coisa preocupante acontecendo ao mesmo tempo,
[22:26] acontecendo ao mesmo tempo, tá? E eu vou trazer algumas dessas eh
[22:29] tá? E eu vou trazer algumas dessas eh preocupações para vocês também.
[22:31] preocupações para vocês também. Então aqui trouxe um resumo. Ah, by the
[22:33] Então aqui trouxe um resumo. Ah, by the way, eu posso compartilhar a
[22:34] way, eu posso compartilhar a apresentação com vocês se vocês
[22:35] apresentação com vocês se vocês quiserem. depois vai tá salvo também no
[22:37] quiserem. depois vai tá salvo também no no YouTube. Então eu trouxe aqui até
[22:40] no YouTube. Então eu trouxe aqui até 2023, ou seja, o estado anterior, nós
[22:43] 2023, ou seja, o estado anterior, nós tínhamos modelos que não tinham
[22:45] tínhamos modelos que não tinham multimodalidade, o raciocínio no
[22:47] multimodalidade, o raciocínio no pós-treino era bem limitado, só tinha a
[22:51] pós-treino era bem limitado, só tinha a conversação. Hoje já tem o modo entic,
[22:53] conversação. Hoje já tem o modo entic, né, o modo de agentes. O contexto hoje
[22:56] né, o modo de agentes. O contexto hoje tá muito maior e nós temos o reasoning.
[23:03] Então, por que que a direção parece
[23:05] Então, por que que a direção parece plausível?
[23:08] Porque nós temos uma unificação
[23:10] Porque nós temos uma unificação crescente,
[23:11] crescente, percepção, linguagem, raciocínio, ação
[23:13] percepção, linguagem, raciocínio, ação convergindo para sistemas únicos, ou
[23:15] convergindo para sistemas únicos, ou seja, um sistema que faz tudo isso.
[23:18] seja, um sistema que faz tudo isso. Segundo, ganhos consistentes,
[23:21] Segundo, ganhos consistentes, progressos em benchmarks difíceis como o
[23:23] progressos em benchmarks difíceis como o MEF, o Rio Meneval, o Arcadi e o SUBT,
[23:27] MEF, o Rio Meneval, o Arcadi e o SUBT, agentes multidomínio, planejamento,
[23:30] agentes multidomínio, planejamento, ferramentas, memória, contexto encadeado
[23:33] ferramentas, memória, contexto encadeado com poucas instruções
[23:36] com poucas instruções e tá indo além da linguagem,
[23:38] e tá indo além da linguagem, tá? Então, modelos de mundo e sistemas
[23:41] tá? Então, modelos de mundo e sistemas corporificados que sugerem expansão para
[23:43] corporificados que sugerem expansão para o espaço físico.
[23:46] o espaço físico. Então, na velocidade que nós estamos
[23:48] Então, na velocidade que nós estamos indo, é bem provável que nós atinjamos
[23:50] indo, é bem provável que nós atinjamos algo parecido com essa definição aqui de
[23:54] algo parecido com essa definição aqui de ADI nos próximos anos. Que que isso
[23:56] ADI nos próximos anos. Que que isso implica para você?
[23:59] implica para você? Ah, nós vamos ser dominados. Não,
[24:02] Ah, nós vamos ser dominados. Não, isso implica que nós vamos ter uma um
[24:04] isso implica que nós vamos ter uma um baita oportunidade de ter uma tecnologia
[24:06] baita oportunidade de ter uma tecnologia para trabalhar conosco, para aumentar as
[24:08] para trabalhar conosco, para aumentar as nossas capacidades.
[24:11] nossas capacidades. E também mostra uma grande demanda para
[24:13] E também mostra uma grande demanda para que nós trabalhemos enquanto sociedade
[24:16] que nós trabalhemos enquanto sociedade para demandar as regulamentações
[24:18] para demandar as regulamentações necessárias para esse tipo de
[24:20] necessárias para esse tipo de tecnologia.
[24:22] tecnologia. Não tem freelunch, não tem almoço
[24:24] Não tem freelunch, não tem almoço grátis. A tecnologia é muito poderosa e
[24:27] grátis. A tecnologia é muito poderosa e como já dizia o filósofo, né, com
[24:29] como já dizia o filósofo, né, com grandes poderes vem grandes
[24:31] grandes poderes vem grandes responsabilidades.
[24:33] responsabilidades. Não é o Homaranha, tá? [risadas]
[24:37] Não é o Ancle Len.
[24:39] Não é o Ancle Len. E o que que falta?
[24:42] E o que que falta? Confiabilidade, primeira coisa, ela
[24:44] Confiabilidade, primeira coisa, ela ainda é irregular.
[24:47] ainda é irregular. Então, modelos hoje erram de forma
[24:49] Então, modelos hoje erram de forma inconsistente. Às vezes eles acertam
[24:51] inconsistente. Às vezes eles acertam para perguntas dificíimas
[24:54] para perguntas dificíimas e erro para perguntas idiotas.
[24:59] Por exemplo, quantos Bs existem numa
[25:01] Por exemplo, quantos Bs existem numa palavra? Por exemplo,
[25:04] palavra? Por exemplo, dependência de scaffolding. Dependência
[25:06] dependência de scaffolding. Dependência de scaffolding significa que você
[25:07] de scaffolding significa que você precisa de muitas outras coisas, muitas
[25:10] precisa de muitas outras coisas, muitas mudanças, muitos eh eh programinhas
[25:12] mudanças, muitos eh eh programinhas adicionais, muitas escolhas adicionais
[25:14] adicionais, muitas escolhas adicionais para fazer isso funcionar ainda, tá?
[25:17] para fazer isso funcionar ainda, tá? Então a gente precisa trabalhar nisso. E
[25:19] Então a gente precisa trabalhar nisso. E a fragilidade fora da distribuição. Tem
[25:21] a fragilidade fora da distribuição. Tem gente aqui que faz pesquisa em out of
[25:23] gente aqui que faz pesquisa em out of distribution, né? Eh, justamente quando
[25:25] distribution, né? Eh, justamente quando você tem problemas reais, a ideia é que
[25:28] você tem problemas reais, a ideia é que você conseguisse lidar com esse problema
[25:29] você conseguisse lidar com esse problema real sem mudar tanto o seu modelo.
[25:32] real sem mudar tanto o seu modelo. Então, a gente ainda tá limitado nesse
[25:33] Então, a gente ainda tá limitado nesse sentido.
[25:38] E a outra coisa é que nós temos uma
[25:39] E a outra coisa é que nós temos uma crise metodológica na medição de
[25:41] crise metodológica na medição de inteligência. A própria definição de
[25:43] inteligência. A própria definição de inteligência é difícil.
[25:46] inteligência é difícil. Então, do jeito que nós estamos hoje, se
[25:47] Então, do jeito que nós estamos hoje, se nós chegássemos hoje na EDI, a gente não
[25:50] nós chegássemos hoje na EDI, a gente não saberia,
[25:52] saberia, porque ainda não temos uma forma
[25:54] porque ainda não temos uma forma unificada de medição. Então, é por isso
[25:57] unificada de medição. Então, é por isso que eu digo aqui que nós temos alguns
[25:59] que eu digo aqui que nós temos alguns indícios de evolução nesse
[26:01] indícios de evolução nesse desenvolvimento nos últimos anos.
[26:04] desenvolvimento nos últimos anos. Então, por exemplo,
[26:06] Então, por exemplo, o AI Index 2026 acabou de sair e eu
[26:10] o AI Index 2026 acabou de sair e eu trouxe para vocês aqui um alerta. Os
[26:13] trouxe para vocês aqui um alerta. Os avaliadores hoje não conseguem
[26:15] avaliadores hoje não conseguem acompanhar o ritmo do progresso. Fato,
[26:18] acompanhar o ritmo do progresso. Fato, tá? Então, você, não sei se vocês estão
[26:21] tá? Então, você, não sei se vocês estão sabendo, mas na semana passada eh houve
[26:23] sabendo, mas na semana passada eh houve o lançamento restrito do Cloud Meetos.
[26:27] o lançamento restrito do Cloud Meetos. Vocês ouviram falar do Cloud Meetos? Uma
[26:31] Vocês ouviram falar do Cloud Meetos? Uma coisa para vocês não se assustarem ou
[26:33] coisa para vocês não se assustarem ou para se assustarem, o Cloud Meetles, se
[26:35] para se assustarem, o Cloud Meetles, se ele tivesse só o nível do chat GPT de
[26:38] ele tivesse só o nível do chat GPT de conversação, mas o que ele tá
[26:40] conversação, mas o que ele tá conseguindo fazer, que é encontrar bugs
[26:41] conseguindo fazer, que é encontrar bugs em desenvolvimento de código, já vai ser
[26:43] em desenvolvimento de código, já vai ser um grande avanço,
[26:46] um grande avanço, porque ele representa um grande perigo
[26:48] porque ele representa um grande perigo para softwares já instalados. Ele
[26:50] para softwares já instalados. Ele encontrou bugs de 30 anos em em software
[26:53] encontrou bugs de 30 anos em em software de roteadores.
[26:55] de roteadores. Ele encontrou bug de anos na FFMPEG, uma
[26:58] Ele encontrou bug de anos na FFMPEG, uma biblioteca que todo mundo usa.
[27:01] biblioteca que todo mundo usa. E mais do que isso, ele conseguiu sair
[27:02] E mais do que isso, ele conseguiu sair do contêiner.
[27:04] do contêiner. Todo mundo que faz execução de código
[27:05] Todo mundo que faz execução de código dentro de data center aqui, pega, tem um
[27:07] dentro de data center aqui, pega, tem um contêiner, coloca um software lá dentro
[27:08] contêiner, coloca um software lá dentro e ele executa. O Cloud Mitos saiu do
[27:12] e ele executa. O Cloud Mitos saiu do contêiner. O que que quer dizer isso? O
[27:14] contêiner. O que que quer dizer isso? O programador dele disse: "Você tá dentro
[27:16] programador dele disse: "Você tá dentro de um contêiner, se você encontrar uma
[27:18] de um contêiner, se você encontrar uma falha no código do contêiner, você sai e
[27:20] falha no código do contêiner, você sai e me manda o e-mail". E ele saiu.
[27:24] me manda o e-mail". E ele saiu. Ele saiu do conêiner. Que que significa
[27:26] Ele saiu do conêiner. Que que significa sair do contêiner? Nada demais, nada
[27:28] sair do contêiner? Nada demais, nada espiritual ou ADI, nada disso. Significa
[27:31] espiritual ou ADI, nada disso. Significa que ele encontrou um bug e que me permit
[27:34] que ele encontrou um bug e que me permit que permitia a ele acessar o sistema
[27:35] que permitia a ele acessar o sistema operacional e enviar um e-mail. E ele
[27:38] operacional e enviar um e-mail. E ele fez isso.
[27:41] fez isso. Então, o que nós estamos mostrando aqui
[27:43] Então, o que nós estamos mostrando aqui que essas estão ficando tão boas que
[27:45] que essas estão ficando tão boas que elas acham bugs que a gente achava que
[27:47] elas acham bugs que a gente achava que não tinha e elas geram bugs que nós não
[27:51] não tinha e elas geram bugs que nós não vamos ser capazes de encontrar,
[27:54] vamos ser capazes de encontrar, tá?
[27:57] Então, a próxima fronteira
[28:00] Então, a próxima fronteira eh é a gente sair do chatbot
[28:03] eh é a gente sair do chatbot e passar passar pros sistemas que
[28:05] e passar passar pros sistemas que percebem, planejam e agem.
[28:08] percebem, planejam e agem. Tá? E a tem que ser pensada fora da
[28:11] Tá? E a tem que ser pensada fora da caixa aqui. E a não é só resolver
[28:14] caixa aqui. E a não é só resolver padrões. E a não é só conversar com
[28:17] padrões. E a não é só conversar com chatt. Não. E a significa fazer isso
[28:21] chatt. Não. E a significa fazer isso [limpando a garganta] mais a percepção
[28:22] [limpando a garganta] mais a percepção de mundo, mais o planejamento e mais
[28:25] de mundo, mais o planejamento e mais ação no mundo. A gente tá muito bom na
[28:28] ação no mundo. A gente tá muito bom na primeira parte,
[28:30] primeira parte, mas a gente ainda não percebe o mundo
[28:32] mas a gente ainda não percebe o mundo tão bem. A gente não age muito bem no
[28:33] tão bem. A gente não age muito bem no mundo e a gente não tem muito, muito boa
[28:37] mundo e a gente não tem muito, muito boa qualidade no planejamento.
[28:39] qualidade no planejamento. Isso vai obviamente ser melhorado ao
[28:41] Isso vai obviamente ser melhorado ao longo dos anos.
[28:43] longo dos anos. Precisamos partir para ir a
[28:45] Precisamos partir para ir a corporificada, ou seja, sair de software
[28:47] corporificada, ou seja, sair de software e passar a atuar no mundo físico. Isso
[28:49] e passar a atuar no mundo físico. Isso vai ter um grande impacto na vida das
[28:50] vai ter um grande impacto na vida das pessoas e na economia.
[28:54] pessoas e na economia. E na linha, por exemplo, de modelos de
[28:55] E na linha, por exemplo, de modelos de mundo, Gini 2, DIN 3, eh, o Sima 2 e
[28:59] mundo, Gini 2, DIN 3, eh, o Sima 2 e outros modelos. Esse vai ser o grande
[29:01] outros modelos. Esse vai ser o grande salto. Mas independente desse salto
[29:04] salto. Mas independente desse salto necessário, é importante vocês terem em
[29:05] necessário, é importante vocês terem em mente que tá havendo um grande avanço,
[29:09] mente que tá havendo um grande avanço, já capaz de gerar muita mudança na
[29:11] já capaz de gerar muita mudança na economia e na vida das pessoas,
[29:15] economia e na vida das pessoas, positivas e negativas.
[29:17] positivas e negativas. Então, uma síntese equilibrada que eu
[29:19] Então, uma síntese equilibrada que eu trouxe para vocês aqui é: estamos na
[29:21] trouxe para vocês aqui é: estamos na direção, mas definitivamente não estamos
[29:24] direção, mas definitivamente não estamos no destino, tá? Caminhamos na direção,
[29:27] no destino, tá? Caminhamos na direção, dado esses argumentos que eu passei para
[29:29] dado esses argumentos que eu passei para vocês, ampliação do escopo, raciocínio
[29:32] vocês, ampliação do escopo, raciocínio multimodalidade, sistemas que combinam
[29:34] multimodalidade, sistemas que combinam percepção, planejamento e ação e tempo
[29:36] percepção, planejamento e ação e tempo de inferência. Eh, eh, percepção e
[29:39] de inferência. Eh, eh, percepção e escala em tempo de inferência. Mas ainda
[29:42] escala em tempo de inferência. Mas ainda precisamos robustez, confiabilidade,
[29:45] precisamos robustez, confiabilidade, eficiência comparável à inteligência
[29:46] eficiência comparável à inteligência biológica. Falta o grounding causal.
[29:49] biológica. Falta o grounding causal. Então, eu tenho alunos que pesquisam
[29:52] Então, eu tenho alunos que pesquisam causalidade.
[29:53] causalidade. A machine learning e a de forma clássica
[29:56] A machine learning e a de forma clássica e são muito bons para encontrar
[29:59] e são muito bons para encontrar correlações
[30:01] correlações e historicamente muito ruins para saber
[30:04] e historicamente muito ruins para saber o que que causa o quê.
[30:07] o que que causa o quê. E depois de encontrar o que que causa o
[30:08] E depois de encontrar o que que causa o quê, você ainda tem que ter avanços na
[30:11] quê, você ainda tem que ter avanços na intervenção.
[30:13] intervenção. Ou seja, você descobre que A causa B. E
[30:15] Ou seja, você descobre que A causa B. E agora a pergunta óbvia é: "E se eu fizer
[30:17] agora a pergunta óbvia é: "E se eu fizer uma mudança com A, qual vai ser o
[30:19] uma mudança com A, qual vai ser o impacto em B?" Nós não temos isso ainda,
[30:22] impacto em B?" Nós não temos isso ainda, a intervenção. E depois de resolver a
[30:25] a intervenção. E depois de resolver a intervenção, tem um outro nível ainda
[30:26] intervenção, tem um outro nível ainda que é o contrafactual.
[30:28] que é o contrafactual. Você deu o remédio de dose dois para o
[30:32] Você deu o remédio de dose dois para o paciente e ele morreu.
[30:35] paciente e ele morreu. E se eu tivesse dado a dose um, ele
[30:38] E se eu tivesse dado a dose um, ele teria sobrevivido? É o contrafactual. E
[30:41] teria sobrevivido? É o contrafactual. E esse mundo imaginário a IA não faz
[30:44] esse mundo imaginário a IA não faz ainda. Então ainda existem desafios.
[30:47] ainda. Então ainda existem desafios. Então se você vir Sultima falando modelo
[30:50] Então se você vir Sultima falando modelo do chat GPT 5.5 é ADI. Não é,
[30:55] do chat GPT 5.5 é ADI. Não é, não é, mas é um bom avanço.
[30:59] não é, mas é um bom avanço. Então agora não é a pergunta que nós
[31:00] Então agora não é a pergunta que nós devemos
[31:01] devemos >> fazer, não, não deve ser quando, mas o
[31:05] >> fazer, não, não deve ser quando, mas o que que nós chamaremos de
[31:08] que que nós chamaremos de nós vamos chamar performance
[31:09] nós vamos chamar performance impressionante em certos resultados?
[31:13] impressionante em certos resultados? Nós vamos ter uma competência que é
[31:14] Nós vamos ter uma competência que é geral e útil
[31:17] geral e útil e nós vamos ter uma inteligência que é
[31:18] e nós vamos ter uma inteligência que é geral e robusta? Se sim, a gente vai ter
[31:21] geral e robusta? Se sim, a gente vai ter chegado em algo importante. E é
[31:24] chegado em algo importante. E é justamente aqui que eu quero trazer o
[31:25] justamente aqui que eu quero trazer o conceito de ACI. Tem gente que argumenta
[31:28] conceito de ACI. Tem gente que argumenta que se nós conseguirmos fazer isso, não
[31:30] que se nós conseguirmos fazer isso, não interessa se a gente vai chamar de ADI,
[31:32] interessa se a gente vai chamar de ADI, porque ADI implica numa comparação com o
[31:34] porque ADI implica numa comparação com o ser humano. Vamos chamar isso em que
[31:36] ser humano. Vamos chamar isso em que algo que seja útil e afeta a vida das
[31:37] algo que seja útil e afeta a vida das pessoas. Inteligência artificial capaz e
[31:39] pessoas. Inteligência artificial capaz e pronto.
[31:41] pronto. Tá? Então o argumento é: vamos discutir
[31:44] Tá? Então o argumento é: vamos discutir inteligência artificial capaz.
[31:50] Primeira take your home lesson. A
[31:51] Primeira take your home lesson. A fronteira da I mudou de patamar, tá?
[31:55] fronteira da I mudou de patamar, tá? Então, eh, o desafio não é só construir
[31:58] Então, eh, o desafio não é só construir sistemas mais capazes, mas entender com
[32:00] sistemas mais capazes, mas entender com rigor o que essas capacidades realmente
[32:02] rigor o que essas capacidades realmente significam pra gente.
[32:07] E a pergunta não deve ser quão poderosa
[32:09] E a pergunta não deve ser quão poderosa ela se tornará. Essa pergunta é errada.
[32:14] ela se tornará. Essa pergunta é errada. A gente não deve fazer essa pergunta
[32:15] A gente não deve fazer essa pergunta concentrando atenção nas capacidades
[32:17] concentrando atenção nas capacidades técnicas e trajetórias de crescimento.
[32:19] técnicas e trajetórias de crescimento. Está acontecendo fato.
[32:21] Está acontecendo fato. A pergunta certo deve ser: Quais valores
[32:23] A pergunta certo deve ser: Quais valores guiarão o seu desenvolvimento?
[32:26] guiarão o seu desenvolvimento? Tá? Toda a tecnologia reflete as
[32:28] Tá? Toda a tecnologia reflete as prioridades e valores de quem constrói.
[32:31] prioridades e valores de quem constrói. Então a I não é uma força da natureza,
[32:32] Então a I não é uma força da natureza, uma escolha coletiva.
[32:36] uma escolha coletiva. Por quê? Porque ela não é neutra.
[32:39] Por quê? Porque ela não é neutra. Assim como tecnologias mais complexas
[32:41] Assim como tecnologias mais complexas não são neutras. Ela envolve escolhas de
[32:43] não são neutras. Ela envolve escolhas de poder, incentivos, informação e
[32:47] poder, incentivos, informação e governança,
[32:48] governança, tá? Como argumentou o teórico político
[32:51] tá? Como argumentou o teórico político Langdon Winner, artefatos t política.
[32:55] Langdon Winner, artefatos t política. A inteligência artificial não é exceção.
[32:59] A inteligência artificial não é exceção. Então, se ela envolve poder, quem
[33:02] Então, se ela envolve poder, quem controla os sistemas e quem é controlado
[33:03] controla os sistemas e quem é controlado por eles? É uma pergunta que eu gostaria
[33:05] por eles? É uma pergunta que eu gostaria que todos levassem para casa. Quem
[33:07] que todos levassem para casa. Quem controla
[33:10] controla incentivos? Quais comportamentos os
[33:13] incentivos? Quais comportamentos os sistemas recompensam ou punem?
[33:16] sistemas recompensam ou punem? Nós estamos mudando o nosso
[33:18] Nós estamos mudando o nosso comportamento para ter uma melhor
[33:20] comportamento para ter uma melhor resposta da IA ou nós estamos fazendo a
[33:23] resposta da IA ou nós estamos fazendo a IA se adaptar ao nosso comportamento? Eu
[33:25] IA se adaptar ao nosso comportamento? Eu já vi muita gente mudar comportamento
[33:27] já vi muita gente mudar comportamento para ter um um resultado do algoritmo
[33:29] para ter um um resultado do algoritmo razoável,
[33:31] razoável, tá?
[33:32] tá? Informação: onde vem os dados coletados,
[33:36] Informação: onde vem os dados coletados, processados, para quê? Para quem?
[33:39] processados, para quê? Para quem? governança, quem tem o direito de
[33:41] governança, quem tem o direito de decidir sobre o design.
[33:46] Então, esse é um momento histórico. Como
[33:47] Então, esse é um momento histórico. Como eu comentei com vocês, isso tá
[33:49] eu comentei com vocês, isso tá acontecendo agora na nossa vida. A
[33:51] acontecendo agora na nossa vida. A escolha que nós fizermos agora é a que
[33:52] escolha que nós fizermos agora é a que vai afetar os anos que virão, vão afetar
[33:55] vai afetar os anos que virão, vão afetar os filhos, as novas gerações.
[33:58] os filhos, as novas gerações. Então, com esses sistemas que
[34:00] Então, com esses sistemas que compreendem, geram, traduzem texto, tem
[34:03] compreendem, geram, traduzem texto, tem raciocínio, tem percepção, tem produção
[34:05] raciocínio, tem percepção, tem produção criativa, levanta questões profundas do
[34:09] criativa, levanta questões profundas do papel humano.
[34:11] papel humano. Nas palestras que eu dou pelo mundo
[34:12] Nas palestras que eu dou pelo mundo todo, as pessoas vêm me perguntar: "Ou
[34:14] todo, as pessoas vêm me perguntar: "Ou na palestra ou depois da palestra, eu
[34:15] na palestra ou depois da palestra, eu tenho filho em casa, o que que eu devo
[34:17] tenho filho em casa, o que que eu devo sugerir para ele estudar?"
[34:19] sugerir para ele estudar?" É uma das perguntas que eu mais recebo
[34:21] É uma das perguntas que eu mais recebo alguns anos atrás era se o mundo seria
[34:23] alguns anos atrás era se o mundo seria dominado pela EA e o ser humano ia ser o
[34:25] dominado pela EA e o ser humano ia ser o IP, né, destruído. Agora passou, parece
[34:27] IP, né, destruído. Agora passou, parece que a população tá tendo um entendimento
[34:29] que a população tá tendo um entendimento um pouco maior de a pergunta principal
[34:31] um pouco maior de a pergunta principal agora e tem muito mais sentido para mim
[34:33] agora e tem muito mais sentido para mim é essa: que eu sugiro pros meus filhos
[34:36] é essa: que eu sugiro pros meus filhos estudarem, como que eu educo os meus
[34:38] estudarem, como que eu educo os meus filhos? Eu devo proibir a tela? Já me
[34:40] filhos? Eu devo proibir a tela? Já me perguntaram
[34:41] perguntaram se deve proibir a tela, se deve permitir
[34:43] se deve proibir a tela, se deve permitir que a criança só brinque com eh
[34:45] que a criança só brinque com eh brinquedos são que são físicos.
[34:49] brinquedos são que são físicos. ou se deve limitar o número de horas,
[34:51] ou se deve limitar o número de horas, ah, 2 horas por dia é suficiente. Eu não
[34:53] ah, 2 horas por dia é suficiente. Eu não tenho as respostas,
[34:58] eu não tenho filhos. [risadas]
[35:03] Então, o dilema central aqui é: a gente
[35:05] Então, o dilema central aqui é: a gente quer desenvolver soluções que sejam
[35:07] quer desenvolver soluções que sejam orientadas à otimização
[35:11] orientadas à otimização ou concentradas no ser humano. Para quem
[35:13] ou concentradas no ser humano. Para quem é do Record, já deve ter ouvido falar,
[35:15] é do Record, já deve ter ouvido falar, não só por Bimbers, vários colegas
[35:17] não só por Bimbers, vários colegas professores do Record, que nós
[35:18] professores do Record, que nós desenvolvemos no laboratório e a
[35:20] desenvolvemos no laboratório e a centrada no ser humano, Human Center,
[35:23] centrada no ser humano, Human Center, nas nossas projetos, nos nossos projetos
[35:25] nas nossas projetos, nos nossos projetos submetidos, nos nossos artigos, nas
[35:27] submetidos, nos nossos artigos, nas nossas soluções desenvolvidas, sempre
[35:28] nossas soluções desenvolvidas, sempre tem um especialista participando. Por
[35:30] tem um especialista participando. Por exemplo, no Viva Bem, nós trabalhamos
[35:32] exemplo, no Viva Bem, nós trabalhamos com especialistas da área médica, eh, da
[35:36] com especialistas da área médica, eh, da elétrica, eh, da educação física. Nos
[35:40] elétrica, eh, da educação física. Nos projetos, por exemplo, de petróleo, nós
[35:42] projetos, por exemplo, de petróleo, nós temos especialidade, temos físicos. Eh,
[35:44] temos especialidade, temos físicos. Eh, no projeto ORUS temos eh pessoal da
[35:47] no projeto ORUS temos eh pessoal da comunicação, de sociologia, de
[35:48] comunicação, de sociologia, de computação, jornalismo, ou seja, o
[35:51] computação, jornalismo, ou seja, o especialista faz parte do look.
[35:54] especialista faz parte do look. Isso é importante a gente centrar no ser
[35:55] Isso é importante a gente centrar no ser humano, porque quando a gente desenvolve
[35:57] humano, porque quando a gente desenvolve a tecnologia orientada à otimização, o
[35:59] a tecnologia orientada à otimização, o foco é simplesmente na eficiência e na
[36:02] foco é simplesmente na eficiência e na automação, maximização de métricas,
[36:05] automação, maximização de métricas, substituição das capacidades humanas e
[36:06] substituição das capacidades humanas e lógica centrada no sistema. Isso aqui é
[36:10] lógica centrada no sistema. Isso aqui é uma visão que nós chamamos de visão
[36:11] uma visão que nós chamamos de visão utilitária,
[36:12] utilitária, tá? Por outro lado, quando a gente tem
[36:15] tá? Por outro lado, quando a gente tem um desenvolvimento de soluções baseadas
[36:17] um desenvolvimento de soluções baseadas no ser humano, o ser humano ele
[36:19] no ser humano, o ser humano ele participa do processo desde a coleta do
[36:21] participa do processo desde a coleta do dado,
[36:22] dado, o desenvolvimento das técnicas, a
[36:24] o desenvolvimento das técnicas, a interpretação dos resultados e ajuda no
[36:27] interpretação dos resultados e ajuda no processo de decisão. Ou seja, é
[36:30] processo de decisão. Ou seja, é projetado para ampliar a capacidade
[36:31] projetado para ampliar a capacidade humana. É o que nós chamamos de
[36:33] humana. É o que nós chamamos de aumentada, tá? Orientada ao bem-estar e
[36:36] aumentada, tá? Orientada ao bem-estar e a dignidade, complementa e apoia o
[36:38] a dignidade, complementa e apoia o julgamento humano. Lógica centrada nas
[36:41] julgamento humano. Lógica centrada nas pessoas.
[36:43] pessoas. Então, consideremos essa máquina que
[36:45] Então, consideremos essa máquina que para mim é a mais fantástica, que já
[36:48] para mim é a mais fantástica, que já existiu, que é o Cé,
[36:51] existiu, que é o Cé, como diz o Miguel Nicoleles, é o
[36:53] como diz o Miguel Nicoleles, é o verdadeiro criador de tudo. Tem um livro
[36:56] verdadeiro criador de tudo. Tem um livro dele com esse título. Você pode achar
[36:58] dele com esse título. Você pode achar que é um livro sobre religião, mas não
[36:59] que é um livro sobre religião, mas não é. Ele tem um argumento ali que
[37:01] é. Ele tem um argumento ali que justamente as coisas que nós conseguimos
[37:03] justamente as coisas que nós conseguimos como sociedade hoje foi tudo pela
[37:04] como sociedade hoje foi tudo pela criação do nosso cérebro.
[37:06] criação do nosso cérebro. Temos 86 bilhões de neurônios,
[37:10] Temos 86 bilhões de neurônios, realizamos 100 trilhões de sinapses
[37:14] realizamos 100 trilhões de sinapses e uma evolução de 300.000 anos, pelo
[37:16] e uma evolução de 300.000 anos, pelo menos.
[37:21] E o grande segredo dessa máquina é que a
[37:23] E o grande segredo dessa máquina é que a inteligência não tá só dentro dela, ela
[37:27] inteligência não tá só dentro dela, ela tá no coletivo. A verdadeira
[37:29] tá no coletivo. A verdadeira inteligência humana está no coletivo
[37:34] inteligência humana está no coletivo na nossa capacidade de transmissão de
[37:36] na nossa capacidade de transmissão de conhecimento passado de geração em
[37:39] conhecimento passado de geração em geração por meio de linguagem, escrita e
[37:42] geração por meio de linguagem, escrita e cultura.
[37:44] cultura. Aprimoramento.
[37:46] Aprimoramento. Cada geração refina, corrige e expande o
[37:48] Cada geração refina, corrige e expande o conhecimento recebido
[37:51] conhecimento recebido e compartilhamento em escala,
[37:54] e compartilhamento em escala, instituições que permitem o
[37:55] instituições que permitem o conhecimento, beneficiando toda a
[37:57] conhecimento, beneficiando toda a sociedade de forma simultânea.
[38:02] E eu comecei a enxergar isso,
[38:03] E eu comecei a enxergar isso, principalmente a partir de 2018, quando
[38:06] principalmente a partir de 2018, quando eu comecei a a me perguntar onde está de
[38:09] eu comecei a a me perguntar onde está de fato a inteligência.
[38:12] fato a inteligência. Isso coincidiu com a minha transformação
[38:13] Isso coincidiu com a minha transformação no yoga. Meus professores de yoga estão
[38:15] no yoga. Meus professores de yoga estão aqui. Obrigado pela presença. Ah, o
[38:18] aqui. Obrigado pela presença. Ah, o conhecimento do budismo. E hoje eu
[38:20] conhecimento do budismo. E hoje eu consigo ver um pouco diferente essa
[38:23] consigo ver um pouco diferente essa questão de busca da inteligência
[38:25] questão de busca da inteligência artificial. Não é eu tentar chegar na
[38:27] artificial. Não é eu tentar chegar na inteligência de um cérebro.
[38:30] inteligência de um cérebro. A inteligência humana é muito mais
[38:31] A inteligência humana é muito mais complexa do que isso.
[38:36] Então, a evolução eh cultural, como
[38:38] Então, a evolução eh cultural, como trazida nessa tese muito interessante do
[38:40] trazida nessa tese muito interessante do Heinrich e Thomaselo, antropólogos como
[38:43] Heinrich e Thomaselo, antropólogos como Joseph Heinrheit e e Michael Thomaselo
[38:46] Joseph Heinrheit e e Michael Thomaselo argumentam que os humanos não são
[38:48] argumentam que os humanos não são bem-sucedidos porque os indivíduos são
[38:50] bem-sucedidos porque os indivíduos são os mais inteligentes.
[38:53] os mais inteligentes. Nós somos bem-sucedidos porque nós
[38:55] Nós somos bem-sucedidos porque nós podemos aprender uns com os outros e
[38:57] podemos aprender uns com os outros e acumular conhecimento ao longo de
[39:00] acumular conhecimento ao longo de gerações.
[39:02] gerações. E o que que nos torna torna únicos? Aqui
[39:04] E o que que nos torna torna únicos? Aqui vai um pouquinho na direção das
[39:05] vai um pouquinho na direção das perguntas que muitas pessoas me fazem
[39:08] perguntas que muitas pessoas me fazem eh nas palestras, né? O que ensinar pros
[39:11] eh nas palestras, né? O que ensinar pros filhos? O que que nos torna únicos
[39:13] filhos? O que que nos torna únicos quanto humanos? Aprendizagem social
[39:16] quanto humanos? Aprendizagem social sofisticada.
[39:19] sofisticada. A imitação intencional e transmissão
[39:21] A imitação intencional e transmissão fiel. o ensino explícito entre
[39:23] fiel. o ensino explícito entre indivíduos, criação e uso de símbolos
[39:26] indivíduos, criação e uso de símbolos culturais e acumulação melhorias ao
[39:28] culturais e acumulação melhorias ao longo do tempo. A nossa capacidade de
[39:30] longo do tempo. A nossa capacidade de inteligência coletiva acumulativa é o
[39:32] inteligência coletiva acumulativa é o que diferencia fundamentalmente o humano
[39:34] que diferencia fundamentalmente o humano de todas as outras espécies.
[39:39] E isso tem um grande poder.
[39:42] E isso tem um grande poder. A pesquisa científica é um exemplo
[39:43] A pesquisa científica é um exemplo disso. Conhecimento verificado,
[39:46] disso. Conhecimento verificado, replicável, acumulativo. sistemas
[39:49] replicável, acumulativo. sistemas jurídicos, normas que codificam os
[39:51] jurídicos, normas que codificam os valores e estabelecem o estado
[39:53] valores e estabelecem o estado democrático de direito, que permitem que
[39:56] democrático de direito, que permitem que a gente não viva num mundo totalmente
[39:58] a gente não viva num mundo totalmente sem lei.
[40:00] sem lei. Educação, a transmissão sistemática do
[40:02] Educação, a transmissão sistemática do conhecimento, existem ineficiências na
[40:03] conhecimento, existem ineficiências na educação? Existem, mas olha que
[40:05] educação? Existem, mas olha que fantástico o ponto que nós estamos com o
[40:07] fantástico o ponto que nós estamos com o sistema educacional que nós
[40:08] sistema educacional que nós desenvolvemos ao longo da história.
[40:11] desenvolvemos ao longo da história. Instituições democráticas, mecanismos
[40:12] Instituições democráticas, mecanismos para coordenar decisões coletivas. Quem
[40:15] para coordenar decisões coletivas. Quem conhece um pouco mais de democracia e
[40:17] conhece um pouco mais de democracia e sabe que democracia não é só o momento
[40:19] sabe que democracia não é só o momento do voto, sabe que a democracia é linda
[40:22] do voto, sabe que a democracia é linda no processo de discutir em coletivos e e
[40:27] no processo de discutir em coletivos e e você buscar atingir objetivos que
[40:29] você buscar atingir objetivos que benefiem a maior parte das pessoas ao
[40:32] benefiem a maior parte das pessoas ao mesmo tempo e que não joga no lixo as
[40:35] mesmo tempo e que não joga no lixo as minorias.
[40:36] minorias. Porque se demografia democracia fosse
[40:38] Porque se demografia democracia fosse simplesmente respeitar só pela eleição a
[40:41] simplesmente respeitar só pela eleição a voz da maioria, as minorias deixariam de
[40:43] voz da maioria, as minorias deixariam de existir,
[40:45] existir, certo?
[40:48] Então, os fondos fortes da cognição
[40:49] Então, os fondos fortes da cognição humana, para vocês nunca esquecerem,
[40:51] humana, para vocês nunca esquecerem, raciocínio ético, vai pedir para
[40:54] raciocínio ético, vai pedir para algoritmo pensar éticamente.
[40:56] algoritmo pensar éticamente. Então, capacidade de fazer julgamentos
[40:57] Então, capacidade de fazer julgamentos morais contextualizados, empatia,
[41:01] morais contextualizados, empatia, compreensão afetiva das experiências e
[41:03] compreensão afetiva das experiências e necessidades dos outros, compreensão
[41:06] necessidades dos outros, compreensão contextual, interpretação de
[41:08] contextual, interpretação de significados dentro de contextos
[41:09] significados dentro de contextos culturais e sociais ricos e construção
[41:12] culturais e sociais ricos e construção desse sentido,
[41:14] desse sentido, criação de narrativas e proposas ao
[41:16] criação de narrativas e proposas ao longo de longo prazo que orientam a vida
[41:18] longo de longo prazo que orientam a vida humana.
[41:20] humana. Esses são os pontos fortes da cognição
[41:22] Esses são os pontos fortes da cognição humana.
[41:24] humana. E a gente tem um outro lado, o que que a
[41:25] E a gente tem um outro lado, o que que a IA complementa isso? Por isso que eu
[41:27] IA complementa isso? Por isso que eu vivo falando que a gente precisa olhar
[41:29] vivo falando que a gente precisa olhar para essas eh IAs como uma forma de
[41:32] para essas eh IAs como uma forma de aumentar a nossa capacidade. Gente, não
[41:34] aumentar a nossa capacidade. Gente, não tem como competir com IAS para
[41:35] tem como competir com IAS para reconhecimento de padrões. Você não vai
[41:37] reconhecimento de padrões. Você não vai ter condição de competir com um técnica
[41:39] ter condição de competir com um técnica que é especializada em achar padrão em
[41:42] que é especializada em achar padrão em zilhões de dados
[41:45] zilhões de dados e você não vai conseguir processar esses
[41:46] e você não vai conseguir processar esses dados tão rapidamente quanto o
[41:47] dados tão rapidamente quanto o computador. Não adianta.
[41:50] computador. Não adianta. inferência estatística, as detecções que
[41:51] inferência estatística, as detecções que eu comentei aqui de correlações rápidas,
[41:54] eu comentei aqui de correlações rápidas, ela é que faz bem, mas depois você pode
[41:56] ela é que faz bem, mas depois você pode usar a sua, o seu pensamento crítico
[41:58] usar a sua, o seu pensamento crítico para poder excluir aquelas correlações
[42:00] para poder excluir aquelas correlações escuras e tentar chegar em algo que vai
[42:01] escuras e tentar chegar em algo que vai ser útil e também em otimização e há
[42:05] ser útil e também em otimização e há efeito para otimizar a busca dessas
[42:08] efeito para otimizar a busca dessas soluções aqui de reconhecimento de
[42:09] soluções aqui de reconhecimento de padrões, inferência estatística. Então,
[42:11] padrões, inferência estatística. Então, junto o que nós somos bons
[42:13] junto o que nós somos bons com o que a IA é bom, boa.
[42:17] com o que a IA é bom, boa. Essa é a proposta da complementaridade.
[42:19] Essa é a proposta da complementaridade. Inteligência humana, ética, empatia,
[42:21] Inteligência humana, ética, empatia, contexto, criatividade, responsabilidade
[42:22] contexto, criatividade, responsabilidade moral e construção de sentido, mas a
[42:25] moral e construção de sentido, mas a colaboração com as tecnologias do tipo
[42:27] colaboração com as tecnologias do tipo inteligência artificial para somar o que
[42:29] inteligência artificial para somar o que que é o melhor de cada parte. É aí que a
[42:32] que é o melhor de cada parte. É aí que a gente chega nessa capacidade aumentada.
[42:38] E eu vou trazer alguns exemplos aqui de
[42:39] E eu vou trazer alguns exemplos aqui de capacidades aumentadas. Por exemplo,
[42:40] capacidades aumentadas. Por exemplo, diagnóstico médico. Já tem experimentos
[42:42] diagnóstico médico. Já tem experimentos que mostram que uma IA trabalhando
[42:44] que mostram que uma IA trabalhando sozinha ou especialistas trabalhando
[42:46] sozinha ou especialistas trabalhando sozinho na detecção de câncer não são
[42:48] sozinho na detecção de câncer não são tão bons quanto os dois trabalhando
[42:50] tão bons quanto os dois trabalhando juntos.
[42:52] juntos. Descoberta científica. Alguns meses
[42:55] Descoberta científica. Alguns meses atrás nós tivemos o primeiro antibiótico
[42:58] atrás nós tivemos o primeiro antibiótico criado com ajuda de inteligência
[42:59] criado com ajuda de inteligência artificial. É um exemplo de interação
[43:02] artificial. É um exemplo de interação especialista e tecnologia.
[43:05] especialista e tecnologia. Modelos climáticos. A Iá processa dados
[43:08] Modelos climáticos. A Iá processa dados climáticos globais em escala impossível,
[43:10] climáticos globais em escala impossível, apoiando cientistas para compreensão dos
[43:12] apoiando cientistas para compreensão dos sistemas complexos.
[43:15] Então, nós não podemos correr o risco de
[43:16] Então, nós não podemos correr o risco de esquecer o que que é ser humano.
[43:19] esquecer o que que é ser humano. Precisamos pensar na nossa capacidade de
[43:21] Precisamos pensar na nossa capacidade de julgamento, de responsabilidade,
[43:24] julgamento, de responsabilidade, de prestação de contas, que é a
[43:25] de prestação de contas, que é a expressão em inglês accountability
[43:28] expressão em inglês accountability e agência moral, a capacidade de agir
[43:30] e agência moral, a capacidade de agir com base em valores e não apenas na
[43:34] com base em valores e não apenas na otimização de métricas na visão
[43:35] otimização de métricas na visão utilitária.
[43:39] Então aqui a gente tem duas visões
[43:40] Então aqui a gente tem duas visões concorrentes, tá? Essa visão concorrente
[43:43] concorrentes, tá? Essa visão concorrente não sou eu que tô trazendo. Se você
[43:45] não sou eu que tô trazendo. Se você começa a estudar um pouco mais desse
[43:46] começa a estudar um pouco mais desse mundo da inteligência artificial, você
[43:47] mundo da inteligência artificial, você vai ver que tem pelo menos duas
[43:49] vai ver que tem pelo menos duas concorrências hoje grandes.
[43:51] concorrências hoje grandes. Eu posso dar exemplos de quem tá de cada
[43:53] Eu posso dar exemplos de quem tá de cada lado, por exemplo. E a tecnocrática
[43:57] lado, por exemplo. E a tecnocrática prioriza eficiência, automação e
[43:58] prioriza eficiência, automação e produtividade. Maximiza métricas
[44:00] produtividade. Maximiza métricas mensuráveis frequentemente, sem
[44:02] mensuráveis frequentemente, sem considerar consequências sociais mais
[44:04] considerar consequências sociais mais amplas.
[44:05] amplas. Isso é um lado. Sutman ou PNA é um
[44:08] Isso é um lado. Sutman ou PNA é um exemplo aqui, tá?
[44:11] exemplo aqui, tá? E a humanista do outro lado, prioriza
[44:14] E a humanista do outro lado, prioriza dignidade, autonomia e bem-estar humano.
[44:18] dignidade, autonomia e bem-estar humano. Pergunta: Não é o que pode ser
[44:20] Pergunta: Não é o que pode ser otimizado, mas o que melhora a vida das
[44:23] otimizado, mas o que melhora a vida das pessoas.
[44:26] pessoas. Aqui a gente tem, por exemplo, Ian
[44:27] Aqui a gente tem, por exemplo, Ian Lecan,
[44:29] Lecan, eh, pesquisa nessa linha, nós temos
[44:32] eh, pesquisa nessa linha, nós temos Dario Amodei, Dan Tropic, ele defende
[44:35] Dario Amodei, Dan Tropic, ele defende essa linha e muitas outras pessoas. é o
[44:37] essa linha e muitas outras pessoas. é o que nós fazemos aqui no Ribot, por
[44:39] que nós fazemos aqui no Ribot, por exemplo.
[44:42] Então, a tecnocrática busca eficiência,
[44:45] Então, a tecnocrática busca eficiência, automação, produtividade e engajamento,
[44:50] automação, produtividade e engajamento, tá? Quanto que você pode otimizar o
[44:53] tá? Quanto que você pode otimizar o tempo de atenção dos usuários nas
[44:55] tempo de atenção dos usuários nas plataformas digital? A economia da
[44:57] plataformas digital? A economia da atenção, o máximo que você ficar ali
[45:00] atenção, o máximo que você ficar ali para eles é melhor.
[45:04] Quais são os riscos desses sistemas
[45:06] Quais são os riscos desses sistemas puramente tecnocráticos? Não sei se
[45:09] puramente tecnocráticos? Não sei se vocês já pararam para pensar sobre isso.
[45:10] vocês já pararam para pensar sobre isso. A primeira coisa é a manipulação da
[45:12] A primeira coisa é a manipulação da atenção.
[45:14] atenção. Algoritmos que maximizam o engajamento,
[45:16] Algoritmos que maximizam o engajamento, captura atenção humana às custas do
[45:18] captura atenção humana às custas do bem-estar psicológico.
[45:20] bem-estar psicológico. Segunda coisa, amplificação da
[45:21] Segunda coisa, amplificação da desinformação. A gente faz muita
[45:22] desinformação. A gente faz muita pesquisa no LP sobre desinformação.
[45:25] pesquisa no LP sobre desinformação. Conteúdo emocionalmente carregado e
[45:27] Conteúdo emocionalmente carregado e falso frequentemente são os que geram
[45:29] falso frequentemente são os que geram engajamento. gerando engajamento, mais
[45:32] engajamento. gerando engajamento, mais tempo de atenção para essas plataformas
[45:35] tempo de atenção para essas plataformas e concentração de poder. Gente,
[45:39] e concentração de poder. Gente, quando eu era criança e passei a
[45:41] quando eu era criança e passei a entender o mundo um pouco mais, eu
[45:43] entender o mundo um pouco mais, eu aprendi a palavra bilhão
[45:46] aprendi a palavra bilhão e depois eu descobri que uma pessoa
[45:48] e depois eu descobri que uma pessoa poderia juntar bilhão,
[45:51] poderia juntar bilhão, mas parece que eu tenho que revisitar
[45:52] mas parece que eu tenho que revisitar meus conceitos porque parece que uma
[45:54] meus conceitos porque parece que uma pessoa pode juntar trilhão, né? Se vocês
[45:56] pessoa pode juntar trilhão, né? Se vocês virem, por exemplo, Elon Musk vai ser o
[45:58] virem, por exemplo, Elon Musk vai ser o primeiro trilionário da história. Isso é
[46:01] primeiro trilionário da história. Isso é completamente não inteligível. Uma
[46:04] completamente não inteligível. Uma pessoa tem 1 trilhão de dólares.
[46:09] pessoa tem 1 trilhão de dólares. Então, as as grandes plataformas, elas
[46:10] Então, as as grandes plataformas, elas também permitem um acúmulo de capital
[46:13] também permitem um acúmulo de capital muito grande, sem precedentes, o que
[46:15] muito grande, sem precedentes, o que gera uma assimetria preocupante para as
[46:17] gera uma assimetria preocupante para as instituições democráticas.
[46:22] Como escrito e muito bem estudado, um
[46:24] Como escrito e muito bem estudado, um dos livros que eu recomendo na
[46:26] dos livros que eu recomendo na disciplina que eu dou no segundo
[46:27] disciplina que eu dou no segundo semestre sobre os impactos sociais e
[46:29] semestre sobre os impactos sociais e políticos da IA pela [ __ ] Zubof. O
[46:31] políticos da IA pela [ __ ] Zubof. O comportamento humano hoje se torna
[46:34] comportamento humano hoje se torna matériapra para previsão e lucta.
[46:38] matériapra para previsão e lucta. Como que funciona o sistema? O
[46:40] Como que funciona o sistema? O comportamento humano é registrado, os
[46:42] comportamento humano é registrado, os dados são transformados em modelo
[46:43] dados são transformados em modelo preditivo, a previsão é vendida como
[46:45] preditivo, a previsão é vendida como produto, os sistemas influenciam o
[46:47] produto, os sistemas influenciam o comportamento futuro e o ciclo se
[46:49] comportamento futuro e o ciclo se retroalimenta. Tem inclusive um livro
[46:51] retroalimenta. Tem inclusive um livro que discute isso que se chama Olup,
[46:55] que discute isso que se chama Olup, porque isso aqui se repete. Então esse é
[46:57] porque isso aqui se repete. Então esse é um caso que eu quero que vocês pensem um
[46:59] um caso que eu quero que vocês pensem um pouco sobre como vocês podem quebrar
[47:02] pouco sobre como vocês podem quebrar esse look. Por outro lado, eu gostaria
[47:05] esse look. Por outro lado, eu gostaria de trazer aqui o conceito de Iá
[47:07] de trazer aqui o conceito de Iá humanista. Essa IA que tem a premissa
[47:10] humanista. Essa IA que tem a premissa radicalmente diferente, a defesa da
[47:12] radicalmente diferente, a defesa da dignidade, autonomia e bem-estar.
[47:16] dignidade, autonomia e bem-estar. A pergunta do outro lado, tecnocrática,
[47:19] A pergunta do outro lado, tecnocrática, é o que que pode ser otimizado? A
[47:21] é o que que pode ser otimizado? A pergunta que a gente quer fazer aqui, o
[47:22] pergunta que a gente quer fazer aqui, o que que melhora de fato a vida das
[47:23] que que melhora de fato a vida das pessoas?
[47:25] pessoas? Como que a tecnologia pode de fato
[47:27] Como que a tecnologia pode de fato melhorar?
[47:30] Quais são os princípios? Princípios da
[47:32] Quais são os princípios? Princípios da transparência. Você vai desenvolver um
[47:33] transparência. Você vai desenvolver um algoritmo, você pensa como que ele pode
[47:35] algoritmo, você pensa como que ele pode ser transparente, como que ele pode ser
[47:36] ser transparente, como que ele pode ser auditável. como que ele vai ser justo
[47:38] auditável. como que ele vai ser justo para diferentes pessoas, para minorias,
[47:42] para diferentes pessoas, para minorias, que benefício social ele traz? Ele traz
[47:45] que benefício social ele traz? Ele traz o impacto positivo e mensurável paraa
[47:46] o impacto positivo e mensurável paraa sociedade?
[47:48] sociedade? E a responsabilidade, quais são os
[47:49] E a responsabilidade, quais são os mecanismos de prestação de contas quando
[47:51] mecanismos de prestação de contas quando ele der errado?
[47:56] Na prática, por exemplo, a gente pode
[47:57] Na prática, por exemplo, a gente pode pensar, como a gente faz aqui no no Viva
[47:59] pensar, como a gente faz aqui no no Viva Bem, quando você trabalha com
[48:01] Bem, quando você trabalha com Ialumanista, como que você pode dar
[48:04] Ialumanista, como que você pode dar alertas para usuários
[48:06] alertas para usuários com especialistas no loop, fazendo com
[48:10] com especialistas no loop, fazendo com que o usuário possa procurar um
[48:11] que o usuário possa procurar um especialista para mais informações?
[48:14] especialista para mais informações? Ou como que você pode desenvolver
[48:15] Ou como que você pode desenvolver modelos climáticos mais precisos,
[48:17] modelos climáticos mais precisos, considerando os impactos ambientais e
[48:19] considerando os impactos ambientais e das populações locais?
[48:21] das populações locais? [limpando a garganta]
[48:22] [limpando a garganta] Na educação, como é que você trabalha
[48:23] Na educação, como é que você trabalha com aprendizagem personalizada,
[48:26] com aprendizagem personalizada, não deixando ninguém para trás, ou na
[48:28] não deixando ninguém para trás, ou na acessibilidade? Como é que você pode
[48:30] acessibilidade? Como é que você pode usar esse tipo de tecnologia para
[48:32] usar esse tipo de tecnologia para garantir a acessibilidade daqueles que
[48:33] garantir a acessibilidade daqueles que têm mais dificuldade?
[48:37] Na medicina, detecção precoce de câncer,
[48:39] Na medicina, detecção precoce de câncer, análise de exame radiológico,
[48:41] análise de exame radiológico, personalização, predição de riscos,
[48:45] personalização, predição de riscos, sempre pensando na expertise em empatia
[48:48] sempre pensando na expertise em empatia humana no processo.
[48:51] humana no processo. Na ciência, a estrutura de dobra de
[48:52] Na ciência, a estrutura de dobra de proteína, por exemplo, Alpha Fold foi um
[48:54] proteína, por exemplo, Alpha Fold foi um grande avanço, mostra justamente essa
[48:57] grande avanço, mostra justamente essa capacidade de você desenvolver soluções
[48:59] capacidade de você desenvolver soluções que vão ajudar diretamente as pessoas
[49:02] que vão ajudar diretamente as pessoas em ciência de materiais, pesquisas para
[49:04] em ciência de materiais, pesquisas para novos materiais, por exemplo, isso aqui
[49:05] novos materiais, por exemplo, isso aqui pode trazer grandes avanços no futuro,
[49:07] pode trazer grandes avanços no futuro, descoberta de novos medicamentos são os
[49:08] descoberta de novos medicamentos são os fármacos.
[49:10] fármacos. Então, existe uma grande diferença. Até
[49:12] Então, existe uma grande diferença. Até onde podemos empurrar a tecnologia é a
[49:14] onde podemos empurrar a tecnologia é a visão tecnocrática.
[49:17] visão tecnocrática. E a outra visão humanista é como a
[49:19] E a outra visão humanista é como a tecnologia pode servir à humanidade.
[49:24] Então, as ideologias elas moldam o
[49:27] Então, as ideologias elas moldam o discurso.
[49:29] discurso. E eu quero trazer algumas ideologias
[49:30] E eu quero trazer algumas ideologias aqui para vocês que talvez vocês nunca
[49:32] aqui para vocês que talvez vocês nunca tenham ouvido falar, mas elas estão
[49:34] tenham ouvido falar, mas elas estão presentes principalmente no Vale do
[49:35] presentes principalmente no Vale do Silício e elas têm muito impacto na na
[49:38] Silício e elas têm muito impacto na na forma como a gente vê as coisas, porque
[49:39] forma como a gente vê as coisas, porque é quem move o dinheiro.
[49:44] é quem move o dinheiro. Então, a gente pode considerar
[49:46] Então, a gente pode considerar narrativas, por exemplo, científicas,
[49:48] narrativas, por exemplo, científicas, que que são aquelas baseadas em
[49:49] que que são aquelas baseadas em evidências, incertezas reconhecidas,
[49:51] evidências, incertezas reconhecidas, ou ideológicas, baseadas em premissas
[49:54] ou ideológicas, baseadas em premissas filosóficas, visões de mundo e interesse
[49:56] filosóficas, visões de mundo e interesse de grupos específicos. E isso é
[49:58] de grupos específicos. E isso é importante distinguir, vocês vão ver
[49:59] importante distinguir, vocês vão ver porquê.
[50:01] porquê. A Tim Gibrot e a Emily Torres fizeram um
[50:04] A Tim Gibrot e a Emily Torres fizeram um estudo muito interessante trazendo o
[50:06] estudo muito interessante trazendo o conceito de T SC crew. Vocês já ouviram
[50:08] conceito de T SC crew. Vocês já ouviram falar desse termo?
[50:10] falar desse termo? Não, né? Porque como eu falei, quando a
[50:12] Não, né? Porque como eu falei, quando a gente pensa em inteligência artificial,
[50:14] gente pensa em inteligência artificial, a gente fica na primeira parte, que é
[50:15] a gente fica na primeira parte, que é aquela que eu falei até agora.
[50:18] aquela que eu falei até agora. Agora vem o conceito que normalmente
[50:20] Agora vem o conceito que normalmente vocês não veem, isso não passa na Globo,
[50:23] vocês não veem, isso não passa na Globo, né? Que é o seguinte,
[50:27] né? Que é o seguinte, esse termo identifica um conjunto coeso
[50:30] esse termo identifica um conjunto coeso de suposições compartilhadas sobre
[50:32] de suposições compartilhadas sobre tecnologia, humanidade e o futuro da
[50:34] tecnologia, humanidade e o futuro da civilização.
[50:36] civilização. Nós estamos falando aqui de bilhões de
[50:38] Nós estamos falando aqui de bilhões de dólares nesse movimento, tá?
[50:42] dólares nesse movimento, tá? E a gente precisa entender esse
[50:43] E a gente precisa entender esse movimento como um todo. Então, quando a
[50:44] movimento como um todo. Então, quando a gente fala de inteligência artificial,
[50:46] gente fala de inteligência artificial, além do fato de nós não estarmos falando
[50:48] além do fato de nós não estarmos falando de uma tecnologia em si, estamos falando
[50:50] de uma tecnologia em si, estamos falando de uma tecnologia de propósito geral,
[50:52] de uma tecnologia de propósito geral, além de estarmos falando de algo que
[50:54] além de estarmos falando de algo que modifica a vida das pessoas no dia a
[50:56] modifica a vida das pessoas no dia a dia, temos mais por trás.
[51:02] dia, temos mais por trás. Nós temos sete conceitos caminhando em
[51:05] Nós temos sete conceitos caminhando em paralelo.
[51:07] paralelo. O conceito do transhumanismo,
[51:11] O conceito do transhumanismo, que é a transcendência dos limites
[51:13] que é a transcendência dos limites biológicos humanos.
[51:16] biológicos humanos. Vou dar exemplo. Estropianismo,
[51:19] Vou dar exemplo. Estropianismo, a reversão da entropia e
[51:21] a reversão da entropia e superinteligência,
[51:23] superinteligência, o singularitarianismo,
[51:26] o singularitarianismo, criação da superinteligência
[51:27] criação da superinteligência transformadora,
[51:29] transformadora, o cosmismo,
[51:32] o cosmismo, destino cósmico da humanidade,
[51:35] destino cósmico da humanidade, racionalismo,
[51:37] racionalismo, como valor supremo, altruísmo eficaz
[51:40] como valor supremo, altruísmo eficaz como maximização do bem mensurável e
[51:43] como maximização do bem mensurável e longopazoísmo, prioridade moral no
[51:46] longopazoísmo, prioridade moral no futuro distante. Gente, isso aqui pode
[51:49] futuro distante. Gente, isso aqui pode parecer viagem, mas não é.
[51:52] parecer viagem, mas não é. Tá? Vocês vão entender que muitas coisas
[51:55] Tá? Vocês vão entender que muitas coisas que vocês vão ler e têm lido daqui paraa
[51:58] que vocês vão ler e têm lido daqui paraa frente vai ter sentido.
[52:01] frente vai ter sentido. Por exemplo, transhumanismo é a
[52:02] Por exemplo, transhumanismo é a narrativa
[52:04] narrativa de que nós vamos transcender os nossos
[52:06] de que nós vamos transcender os nossos limites biológicos, fazer o upload dos
[52:08] limites biológicos, fazer o upload dos nossos cérebros e sermos capazes de
[52:10] nossos cérebros e sermos capazes de viver no mundo digital forever.
[52:14] viver no mundo digital forever. E tem muito investimento nesse sentido.
[52:18] E tem muito investimento nesse sentido. Quem conhece um indivíduo chamado Rakers
[52:21] Quem conhece um indivíduo chamado Rakers Wild é um dos maiores defensores, por
[52:23] Wild é um dos maiores defensores, por exemplo, do transhumanismo. Sunman, um
[52:26] exemplo, do transhumanismo. Sunman, um dos maiores defensores do
[52:28] dos maiores defensores do transhumanismo,
[52:30] transhumanismo, tá? E quando você tem essa defesa do
[52:32] tá? E quando você tem essa defesa do transhumanismo, você acha mesmo que
[52:34] transhumanismo, você acha mesmo que esses caras estão preocupados em
[52:35] esses caras estão preocupados em desenvolver tecnologia para o aqui e o
[52:37] desenvolver tecnologia para o aqui e o agora, para o bem da sociedade humana?
[52:39] agora, para o bem da sociedade humana? Não, [risadas]
[52:40] Não, [risadas] porque para eles pouco importa se o
[52:41] porque para eles pouco importa se o humano desaparecer, mas eles serem
[52:43] humano desaparecer, mas eles serem capazes de fazer a sobrevivência digital
[52:47] capazes de fazer a sobrevivência digital é o suficiente.
[52:49] é o suficiente. Transhumanismo, cosmismo. Vocês têm
[52:51] Transhumanismo, cosmismo. Vocês têm ideia de uma pessoa super famosa que
[52:53] ideia de uma pessoa super famosa que defende o cosmismo para caramba?
[52:56] defende o cosmismo para caramba? >> El Musk.
[52:57] >> El Musk. >> El Musk. Elon Musk tem investimentos
[53:01] >> El Musk. Elon Musk tem investimentos pesadíssimos na ideia de que, gente, não
[53:03] pesadíssimos na ideia de que, gente, não vamos preocupar com com aquecimento
[53:05] vamos preocupar com com aquecimento global, mudanças climáticas. Esse
[53:07] global, mudanças climáticas. Esse planeta tá condenado mesmo. Vamos
[53:09] planeta tá condenado mesmo. Vamos investir na nossa corrida espacial e
[53:11] investir na nossa corrida espacial e vamos conquistar o universo. Nós temos o
[53:13] vamos conquistar o universo. Nós temos o destino cósmico de conquistar o
[53:16] destino cósmico de conquistar o universo.
[53:19] Singularitarianismo. Vocês já viram
[53:21] Singularitarianismo. Vocês já viram falar de um negócio chamado
[53:22] falar de um negócio chamado singularidade?
[53:24] singularidade? Que que significa singularidade?
[53:27] Que que significa singularidade? é o momento em que nós desenvolvemos a
[53:28] é o momento em que nós desenvolvemos a tecnologia a ponto de fazer tudo melhor
[53:31] tecnologia a ponto de fazer tudo melhor que o ser humano.
[53:33] que o ser humano. E aí já não importa se o ser humano faz
[53:35] E aí já não importa se o ser humano faz parte ou não do processo.
[53:37] parte ou não do processo. Quem quiser até saber um pouco mais
[53:39] Quem quiser até saber um pouco mais sobre isso, eu dou uma disciplina em
[53:40] sobre isso, eu dou uma disciplina em outubro, novembro chamado os impactos
[53:42] outubro, novembro chamado os impactos políticos, sociais, humanos e
[53:43] políticos, sociais, humanos e filosóficos da IA. Lá a gente discute
[53:46] filosóficos da IA. Lá a gente discute alguns futuros possíveis,
[53:48] alguns futuros possíveis, quatro deles pelo menos. E um desses
[53:51] quatro deles pelo menos. E um desses possíveis futuros com singularidade é o
[53:53] possíveis futuros com singularidade é o seguinte. Existe uma elite de menos de
[53:56] seguinte. Existe uma elite de menos de 1% da sociedade que tem acesso à
[53:58] 1% da sociedade que tem acesso à tecnologia que domina tudo, toda a
[53:59] tecnologia que domina tudo, toda a riqueza dela e os outros 99
[54:03] riqueza dela e os outros 99 não tem interesse.
[54:07] Estropianismo.
[54:08] Estropianismo. A segunda lei da termodinâmica diz que
[54:11] A segunda lei da termodinâmica diz que nós gastamos uma energia gigantesca para
[54:13] nós gastamos uma energia gigantesca para mantermos o nosso corpo como ele tá,
[54:15] mantermos o nosso corpo como ele tá, porque nós estamos lutando contra a
[54:17] porque nós estamos lutando contra a entropia,
[54:18] entropia, certo?
[54:21] Esses caras dizem o seguinte: "Vamos
[54:23] Esses caras dizem o seguinte: "Vamos investir tudo que a gente puder para
[54:25] investir tudo que a gente puder para lutar contra a entropia. Vamos viver 500
[54:28] lutar contra a entropia. Vamos viver 500 anos." A tal ponto que o Rakers Wi, por
[54:31] anos." A tal ponto que o Rakers Wi, por exemplo, deixou de se alimentar e ele
[54:33] exemplo, deixou de se alimentar e ele come 150 pílulas por dia.
[54:37] come 150 pílulas por dia. Uma pílula para minerais, uma pílula
[54:39] Uma pílula para minerais, uma pílula para proteína.
[54:41] para proteína. É impressionante, mas você olha para ele
[54:44] É impressionante, mas você olha para ele com 70 e poucos anos, parece que ele tá
[54:46] com 70 e poucos anos, parece que ele tá mais velho do que uma pessoa com 70 e
[54:48] mais velho do que uma pessoa com 70 e poucos anos que come churrasco e bebe
[54:50] poucos anos que come churrasco e bebe caiirinha. [risadas]
[54:54] Altruísmo eficaz de todos aqui é o que
[54:56] Altruísmo eficaz de todos aqui é o que me dá mais medo.
[54:59] me dá mais medo. Altruísmo eficaz, que é o movimento
[55:01] Altruísmo eficaz, que é o movimento chamado effective alorism,
[55:04] chamado effective alorism, é aquele conjunto, existe um grupo bem
[55:07] é aquele conjunto, existe um grupo bem significativo de bilionários aqui que
[55:09] significativo de bilionários aqui que fala o seguinte: "Não queremos qualquer
[55:11] fala o seguinte: "Não queremos qualquer tipo de regulamentação,
[55:13] tipo de regulamentação, não queremos qualquer eh política no
[55:17] não queremos qualquer eh política no agora. Basta a gente explorar a
[55:20] agora. Basta a gente explorar a tecnologia do modo que puder, acumular o
[55:22] tecnologia do modo que puder, acumular o máximo de riqueza que puder e antes de
[55:24] máximo de riqueza que puder e antes de morrer a gente faz doação para investir
[55:27] morrer a gente faz doação para investir na população que vai vir no futuro. Por
[55:29] na população que vai vir no futuro. Por quê? Porque eu vou maximizar a visão
[55:32] quê? Porque eu vou maximizar a visão utilitária do mundo. Eu vou maximizar o
[55:34] utilitária do mundo. Eu vou maximizar o meu impacto. Por que que você vai
[55:35] meu impacto. Por que que você vai maximizar o seu impacto se você investe
[55:37] maximizar o seu impacto se você investe na população que vai vir a toda a
[55:40] na população que vai vir a toda a população humana que já existiu soma
[55:42] população humana que já existiu soma mais ou menos, óbvio que isso é
[55:43] mais ou menos, óbvio que isso é estimado, 100 bilhões de pessoas em toda
[55:46] estimado, 100 bilhões de pessoas em toda a história. 100 bilhões de pessoas já
[55:49] a história. 100 bilhões de pessoas já viveram nesse nesse planeta.
[55:51] viveram nesse nesse planeta. Se você considerar que a gente tem pelo
[55:53] Se você considerar que a gente tem pelo menos,
[55:54] menos, sei lá, 1 milhão de anos no futuro, se a
[55:56] sei lá, 1 milhão de anos no futuro, se a gente não se destruir como espécie, o
[55:58] gente não se destruir como espécie, o que existe um grande probabilidade de
[55:59] que existe um grande probabilidade de acontecer,
[56:01] acontecer, existe a possibilidade de nós termos
[56:03] existe a possibilidade de nós termos paraa frente mais pelo menos 500 bilhões
[56:07] paraa frente mais pelo menos 500 bilhões de humanos. Então, se você fala que tá
[56:08] de humanos. Então, se você fala que tá investindo lá no futuro, eh, você
[56:13] investindo lá no futuro, eh, você vai ter uma maximização dos seus
[56:15] vai ter uma maximização dos seus efeitos. Então, esses bilionários,
[56:17] efeitos. Então, esses bilionários, muitos aqui, posso recomendar os livros
[56:20] muitos aqui, posso recomendar os livros para vocês lerem depois. Vocês têm a
[56:22] para vocês lerem depois. Vocês têm a nomeação deles e o que que cada um deles
[56:23] nomeação deles e o que que cada um deles faz.
[56:25] faz. Eh, pensa o seguinte, gente, não adianta
[56:28] Eh, pensa o seguinte, gente, não adianta a gente pesquisar
[56:31] a gente pesquisar eh cura para malária, não adianta a
[56:33] eh cura para malária, não adianta a gente pensar na dengue, não adianta a
[56:34] gente pensar na dengue, não adianta a gente pensar na aides, não adianta a
[56:35] gente pensar na aides, não adianta a gente curar o câncer. Isso aqui vai
[56:37] gente curar o câncer. Isso aqui vai afetar no máximo a população que tá
[56:38] afetar no máximo a população que tá vivendo hoje.
[56:40] vivendo hoje. Vamos pegar, guardar o dinheiro todo e
[56:41] Vamos pegar, guardar o dinheiro todo e investir na população da amanhã,
[56:45] investir na população da amanhã, tá?
[56:47] Então, esses temas comuns aqui, existe
[56:50] Então, esses temas comuns aqui, existe uma um foco muito grande nas populações
[56:52] uma um foco muito grande nas populações hipotéticas, na transcendência
[56:54] hipotéticas, na transcendência tecnológica,
[56:55] tecnológica, na super inteligência que tá no
[56:57] na super inteligência que tá no horizonte e uma visão da tecnologia como
[56:59] horizonte e uma visão da tecnologia como algo que a gente sempre tem que avançar.
[57:02] algo que a gente sempre tem que avançar. Você não pode entender a tecnologia como
[57:03] Você não pode entender a tecnologia como uma uma seta no tempo que você sempre
[57:06] uma uma seta no tempo que você sempre vai avançar. Qual que vai ser o limite?
[57:07] vai avançar. Qual que vai ser o limite? Então, o planeta tem limites, limites
[57:09] Então, o planeta tem limites, limites físicos, limites materiais.
[57:13] físicos, limites materiais. O longotermismo, por exemplo, tem um
[57:15] O longotermismo, por exemplo, tem um argumento central de que trilhões de
[57:16] argumento central de que trilhões de pessoas podem existir no futuro. Cada
[57:18] pessoas podem existir no futuro. Cada uma tem um valor moral igual a que tá no
[57:20] uma tem um valor moral igual a que tá no presente. Então, portanto, o bem-estar
[57:22] presente. Então, portanto, o bem-estar futuro é muito maior do que o que tá no
[57:23] futuro é muito maior do que o que tá no presente.
[57:26] presente. Consequência prática,
[57:28] Consequência prática, investir em riscos existenciais
[57:29] investir em riscos existenciais hipotéticos de longo prazo pode ser
[57:31] hipotéticos de longo prazo pode ser apresentado como moralmente superior
[57:35] apresentado como moralmente superior e mais interessante e importante do que
[57:37] e mais interessante e importante do que combater a pobreza ou a desigualdade,
[57:38] combater a pobreza ou a desigualdade, porque o máximo que eu vou conseguir
[57:40] porque o máximo que eu vou conseguir combater a pobreza é 1 bilhão de
[57:41] combater a pobreza é 1 bilhão de pessoas. Mas se eu investir no futuro,
[57:43] pessoas. Mas se eu investir no futuro, eu tenho muito mais gente. Essa é a
[57:45] eu tenho muito mais gente. Essa é a narrativa de vários bilionários
[57:48] narrativa de vários bilionários e vários movimentos que têm poder nos
[57:51] e vários movimentos que têm poder nos diferentes governos do mundo para evitar
[57:53] diferentes governos do mundo para evitar qualquer tipo de regulamentação e
[57:56] qualquer tipo de regulamentação e controle tecnológico. Então, é por isso
[57:59] controle tecnológico. Então, é por isso que eu tô falando para vocês que quando
[58:01] que eu tô falando para vocês que quando você pensa em inteligência artificial é
[58:03] você pensa em inteligência artificial é muito mais do que a primeira camada, tá?
[58:06] muito mais do que a primeira camada, tá? Eu demorei anos para chegar nessa visão.
[58:09] Eu demorei anos para chegar nessa visão. Como eu disse, quando eu comecei, eu
[58:10] Como eu disse, quando eu comecei, eu enxergava a camada técnica. Já achava
[58:12] enxergava a camada técnica. Já achava linda a camada técnica. E agora que eu
[58:15] linda a camada técnica. E agora que eu consigo enxergar um pouco mais que é
[58:16] consigo enxergar um pouco mais que é além da camada técnica, eu sinto que eu
[58:18] além da camada técnica, eu sinto que eu tenho um dever moral de trabalhar com
[58:21] tenho um dever moral de trabalhar com isso.
[58:26] E existem muitas críticas a a esse
[58:29] E existem muitas críticas a a esse extremo longtermismo, né? Esse essa
[58:31] extremo longtermismo, né? Esse essa questão de pensar só no futuro, ela
[58:34] questão de pensar só no futuro, ela minimiza a desigualdade atual.
[58:36] minimiza a desigualdade atual. E há interesse em minimizar a
[58:38] E há interesse em minimizar a desigualdade atual.
[58:41] desigualdade atual. Há interesse para continuar explorando o
[58:43] Há interesse para continuar explorando o mundo como ele é explorado. Há interesse
[58:45] mundo como ele é explorado. Há interesse para derrubar governos para se ter
[58:47] para derrubar governos para se ter acesso a minerais. Há interesse em se
[58:49] acesso a minerais. Há interesse em se escolher certos políticos que vão
[58:51] escolher certos políticos que vão permitir que você consiga acessar
[58:54] permitir que você consiga acessar minerais raros, terras raras a custo
[58:58] minerais raros, terras raras a custo zero ou mínimo.
[59:01] zero ou mínimo. Ela justifica essa corrida acelerada e
[59:03] Ela justifica essa corrida acelerada e sem leis.
[59:05] sem leis. da tecnologia e obviamente ela especula,
[59:09] da tecnologia e obviamente ela especula, ela prioriza a especulação ao invés da
[59:11] ela prioriza a especulação ao invés da realidade.
[59:14] realidade. E aí tem um livro que me abriu os olhos
[59:16] E aí tem um livro que me abriu os olhos mais ainda chamado More Everything
[59:19] mais ainda chamado More Everything Forever,
[59:21] Forever, mais para sempre
[59:25] mais para sempre do Adam Becker. Ele coloca esse técnico
[59:28] do Adam Becker. Ele coloca esse técnico utopianismo do Vale do Celício com sob
[59:31] utopianismo do Vale do Celício com sob um rigor metodológico científico. A tese
[59:34] um rigor metodológico científico. A tese central é que muitas visões mais
[59:36] central é que muitas visões mais influentes da IA e o futuro tecnológico
[59:38] influentes da IA e o futuro tecnológico se assemelham a narrativas quase
[59:42] se assemelham a narrativas quase religiosas.
[59:45] Gente, a hora que eu li isso aqui, eu
[59:47] Gente, a hora que eu li isso aqui, eu falei: "Tem todo sentido". E aí na
[59:50] falei: "Tem todo sentido". E aí na semana passada o Mark Kckelberg, que é
[59:53] semana passada o Mark Kckelberg, que é um dos maiores filósofos da da
[59:54] um dos maiores filósofos da da atualidade em tecnologia, ele lançou um
[59:57] atualidade em tecnologia, ele lançou um livro chamado AI Religion.
[01:00:02] >> [roncando]
[01:00:02] >> [roncando] >> tá tudo convergindo.
[01:00:05] >> tá tudo convergindo. E aí nós temos a narrativa desse mago
[01:00:08] E aí nós temos a narrativa desse mago tecnológico, [risadas]
[01:00:10] tecnológico, [risadas] que é a observação de que figuras
[01:00:13] que é a observação de que figuras influentes no ecossistema tecnológico
[01:00:15] influentes no ecossistema tecnológico prometem transformações numa escala
[01:00:17] prometem transformações numa escala civilizacional que funciona como mito de
[01:00:20] civilizacional que funciona como mito de fabricação tecnológica. Veja como fala
[01:00:24] fabricação tecnológica. Veja como fala o Elon Musk, o Mark Zuckerberg, o Sun
[01:00:27] o Elon Musk, o Mark Zuckerberg, o Sun Altman, esses caras das Big Tech, eles
[01:00:30] Altman, esses caras das Big Tech, eles falam como se fossem salvadores da
[01:00:32] falam como se fossem salvadores da humanidade, como se eles tivessem
[01:00:34] humanidade, como se eles tivessem direito a fazer qualquer decisão que
[01:00:35] direito a fazer qualquer decisão que eles quisessem.
[01:00:38] eles quisessem. Então eles falam da extensão radical da
[01:00:40] Então eles falam da extensão radical da vida, promessa de que a morte biológica
[01:00:42] vida, promessa de que a morte biológica se tornará obsoleta, da
[01:00:44] se tornará obsoleta, da superinteligência, previsão de que a Iá
[01:00:45] superinteligência, previsão de que a Iá superará toda a inteligência humana e
[01:00:47] superará toda a inteligência humana e transformará civilização da imortalidade
[01:00:49] transformará civilização da imortalidade digital, como naquele filme
[01:00:51] digital, como naquele filme Transcendence do Johnny Dep.
[01:00:57] Isso tem muito perigo.
[01:00:59] Isso tem muito perigo. Isso tem um perigo porque esse otimismo
[01:01:02] Isso tem um perigo porque esse otimismo sem crítica, transformado em ideologia
[01:01:05] sem crítica, transformado em ideologia emerge, traz muitos riscos concretos
[01:01:08] emerge, traz muitos riscos concretos para pluralidade,
[01:01:10] para pluralidade, bem-estar e democracia.
[01:01:13] bem-estar e democracia. por exemplo, ignorar as realidades
[01:01:15] por exemplo, ignorar as realidades sociais,
[01:01:18] sociais, as desigualdades sociais, as minorias,
[01:01:22] as desigualdades sociais, as minorias, racismo, a exclusão que deixa de ser
[01:01:25] racismo, a exclusão que deixa de ser tratado como deve ser tratado e passa a
[01:01:28] tratado como deve ser tratado e passa a ser uma questão técnica presente numa
[01:01:31] ser uma questão técnica presente numa função de otimização,
[01:01:33] função de otimização, uma visão utilitária,
[01:01:35] uma visão utilitária, leva a concentração de poder.
[01:01:38] leva a concentração de poder. Quando poucos atores privados definem a
[01:01:41] Quando poucos atores privados definem a trajetória tecnológica,
[01:01:43] trajetória tecnológica, a pluralidade democrática é
[01:01:44] a pluralidade democrática é enfraquecida, porque eles é que vão
[01:01:46] enfraquecida, porque eles é que vão apoiar os governos a serem escolhidos. O
[01:01:48] apoiar os governos a serem escolhidos. O povo vota, vota, mas vota em quem os
[01:01:51] povo vota, vota, mas vota em quem os milionários escolhem.
[01:01:54] milionários escolhem. e enfraquecimento, obviamente, da
[01:01:55] e enfraquecimento, obviamente, da democracia, o movimento que nós estamos
[01:01:57] democracia, o movimento que nós estamos vivendo no mundo. A democracia está sob
[01:02:00] vivendo no mundo. A democracia está sob ataque. Inclusive, recomendo para vocês,
[01:02:03] ataque. Inclusive, recomendo para vocês, já falei hoje no laboratório, recomendo
[01:02:05] já falei hoje no laboratório, recomendo para vocês assistirem um filme recente
[01:02:06] para vocês assistirem um filme recente que lançou no cinema chamado Mago do
[01:02:09] que lançou no cinema chamado Mago do Kremlin.
[01:02:11] Kremlin. Vocês vão ver como que nasce essa
[01:02:13] Vocês vão ver como que nasce essa questão de desinformação
[01:02:17] questão de desinformação eh vindo do da Rússia para o Ocidente
[01:02:21] eh vindo do da Rússia para o Ocidente num livro sensacional do Giuliano
[01:02:23] num livro sensacional do Giuliano Empoly, que é o mesmo que escreveu os
[01:02:25] Empoly, que é o mesmo que escreveu os engenheiros do caos.
[01:02:29] Então eu gostaria de encerrar essa essa
[01:02:31] Então eu gostaria de encerrar essa essa discussão com vocês mostrando que a
[01:02:33] discussão com vocês mostrando que a tecnologia não é o destino, ela não é
[01:02:35] tecnologia não é o destino, ela não é inevitável.
[01:02:36] inevitável. Nós temos instituições, agências
[01:02:38] Nós temos instituições, agências regulatórias, podemos atuar como grupos,
[01:02:41] regulatórias, podemos atuar como grupos, como universidade, como organismos
[01:02:43] como universidade, como organismos internacionais. Podemos levar isso ao
[01:02:45] internacionais. Podemos levar isso ao debate público para trazer a a
[01:02:48] debate público para trazer a a governança democrática em discussão,
[01:02:50] governança democrática em discussão, para que nós possamos discutir
[01:02:51] para que nós possamos discutir legislações e supervisão e participação
[01:02:54] legislações e supervisão e participação cidadã nesses mecanismos ligados à
[01:02:57] cidadã nesses mecanismos ligados à tecnologia.
[01:02:59] tecnologia. Nós precisamos rejeitar esse
[01:03:01] Nós precisamos rejeitar esse tecnolucionismo de que a o aquecimento
[01:03:03] tecnolucionismo de que a o aquecimento global basta desenvolver alguns
[01:03:04] global basta desenvolver alguns algoritmos e tecnologias que tá
[01:03:06] algoritmos e tecnologias que tá resolvido. Não, não tá.
[01:03:08] resolvido. Não, não tá. O aquecimento global é muito mais hoje
[01:03:10] O aquecimento global é muito mais hoje uma escolha política do que tecnológica.
[01:03:14] uma escolha política do que tecnológica. Problemas que requerem soluções
[01:03:16] Problemas que requerem soluções políticas, desigualdade de renda,
[01:03:17] políticas, desigualdade de renda, concentração de poder, acesso universal
[01:03:19] concentração de poder, acesso universal à saúde. São desafios de distribuição,
[01:03:21] à saúde. São desafios de distribuição, não desafio técnico.
[01:03:24] não desafio técnico. Problema que requerem coordenação
[01:03:26] Problema que requerem coordenação social, crise climática, pandemia,
[01:03:28] social, crise climática, pandemia, migração em massa, demanda cooperação
[01:03:30] migração em massa, demanda cooperação internacional, não um algoritmo.
[01:03:33] internacional, não um algoritmo. Problemas que requerem reforma
[01:03:34] Problemas que requerem reforma constitucional, institucional,
[01:03:36] constitucional, institucional, corrupção, erosão democrática, violação
[01:03:38] corrupção, erosão democrática, violação de direitos humanos, não é um algoritmo.
[01:03:43] Então, nós temos o desafio da
[01:03:44] Então, nós temos o desafio da governança, quem controla, quem se
[01:03:47] governança, quem controla, quem se beneficia, quem é responsável.
[01:03:50] beneficia, quem é responsável. Temos que participar de um caminho
[01:03:52] Temos que participar de um caminho responsável à frente, buscando o
[01:03:54] responsável à frente, buscando o alinhamento da inovação com valores
[01:03:56] alinhamento da inovação com valores sociais. Quem participa do processo
[01:03:59] sociais. Quem participa do processo trazendo mais pessoas, trazendo
[01:04:01] trazendo mais pessoas, trazendo representantes dos diferentes grupos.
[01:04:03] representantes dos diferentes grupos. fazendo uma distribuição equitativa de
[01:04:05] fazendo uma distribuição equitativa de benefícios.
[01:04:07] benefícios. Só isso vai permitir que a gente consiga
[01:04:09] Só isso vai permitir que a gente consiga florescimento humano. E aqui eu quis
[01:04:12] florescimento humano. E aqui eu quis trazer para vocês uma visão, por
[01:04:14] trazer para vocês uma visão, por exemplo, do Aristóteles,
[01:04:18] exemplo, do Aristóteles, que
[01:04:20] que Aristóteles dizia que o florescimento
[01:04:22] Aristóteles dizia que o florescimento humano, ele tem suas raízes na filosofia
[01:04:24] humano, ele tem suas raízes na filosofia clássica, que descreveu como eudaimônia,
[01:04:28] clássica, que descreveu como eudaimônia, uma vida de realização, dignidade e
[01:04:30] uma vida de realização, dignidade e propósito que vai além do mero prazer da
[01:04:32] propósito que vai além do mero prazer da satisfação imediata. [roncando]
[01:04:34] satisfação imediata. [roncando] Então, a visão aristotélica é que
[01:04:37] Então, a visão aristotélica é que não é simplesmente felicidade a
[01:04:39] não é simplesmente felicidade a realização plena da capacidade humana em
[01:04:41] realização plena da capacidade humana em uma vida vivida com virtude e propósito.
[01:04:43] uma vida vivida com virtude e propósito. Eu amônio é muito mais do que isso.
[01:04:45] Eu amônio é muito mais do que isso. Aprimoração contemporânea. Tecnologias
[01:04:47] Aprimoração contemporânea. Tecnologias que contribuem para o florescimento,
[01:04:49] que contribuem para o florescimento, expandem capacidades. Sim. Ampliam a
[01:04:52] expandem capacidades. Sim. Ampliam a autonomia? Sim. Promovem a condição para
[01:04:55] autonomia? Sim. Promovem a condição para a vida digna e significativa? Ainda não.
[01:04:59] a vida digna e significativa? Ainda não. Então esse deve ser o nosso critério
[01:05:01] Então esse deve ser o nosso critério para qualquer desenvolvimento em
[01:05:03] para qualquer desenvolvimento em tecnologia. como inteligência
[01:05:04] tecnologia. como inteligência artificial, como ela vai contribuir,
[01:05:05] artificial, como ela vai contribuir, para quem ela vai contribuir?
[01:05:09] para quem ela vai contribuir? Notem que nós podemos melhorar é muito
[01:05:11] Notem que nós podemos melhorar é muito diagnósticos,
[01:05:13] diagnósticos, ter muito mais crianças acessando a
[01:05:15] ter muito mais crianças acessando a informação, garantindo que a tecnologia
[01:05:17] informação, garantindo que a tecnologia chegue a lugares nunca antes possíveis,
[01:05:22] chegue a lugares nunca antes possíveis, afetar a educação diretamente com a
[01:05:24] afetar a educação diretamente com a aprendizagem personalizada. Eu me
[01:05:25] aprendizagem personalizada. Eu me preocupo muito com isso. Eu tento trazer
[01:05:27] preocupo muito com isso. Eu tento trazer paraas minhas disciplinas ah pensamentos
[01:05:29] paraas minhas disciplinas ah pensamentos de como ter a classe cada vez mais
[01:05:31] de como ter a classe cada vez mais engajada e discutindo e aprendendo os
[01:05:33] engajada e discutindo e aprendendo os conceitos de verdade. Ao em vez de ser
[01:05:34] conceitos de verdade. Ao em vez de ser simplesmente alguém que fica repetindo
[01:05:36] simplesmente alguém que fica repetindo um conhecimento eh [limpando a garganta]
[01:05:38] um conhecimento eh [limpando a garganta] acumulado.
[01:05:40] acumulado. Podemos avançar muito na predição de
[01:05:42] Podemos avançar muito na predição de doença, diagnóstico médico
[01:05:45] doença, diagnóstico médico ou quem sabe ajudar nessas problemas
[01:05:49] ou quem sabe ajudar nessas problemas difíceis e atuais do clima, da
[01:05:52] difíceis e atuais do clima, da acessibilidade, reconhecimento da fala,
[01:05:54] acessibilidade, reconhecimento da fala, fazer com que pessoas que perderam a
[01:05:56] fazer com que pessoas que perderam a fala ou têm dificuldade de falar tornem
[01:05:58] fala ou têm dificuldade de falar tornem a ganhar essa autonomia. Tradução em
[01:06:00] a ganhar essa autonomia. Tradução em tempo real, quem sabe a gente chegue
[01:06:02] tempo real, quem sabe a gente chegue aqui de fato naquela possibilidade de
[01:06:04] aqui de fato naquela possibilidade de conversar em diferentes línguas em tempo
[01:06:06] conversar em diferentes línguas em tempo real
[01:06:07] real e assistência visual.
[01:06:11] e assistência visual. Isso vai em múltiplas partes, né, na
[01:06:13] Isso vai em múltiplas partes, né, na descoberta científica,
[01:06:15] descoberta científica, uma ferramenta civilizacional, então,
[01:06:17] uma ferramenta civilizacional, então, como eu trouxe para vocês,
[01:06:20] como eu trouxe para vocês, ela só vai ser possível se nós tivermos
[01:06:21] ela só vai ser possível se nós tivermos então transparência, supervisão,
[01:06:24] então transparência, supervisão, estrutura ética e uma cooperação
[01:06:25] estrutura ética e uma cooperação internacional.
[01:06:29] E temos muitos papéis,
[01:06:31] E temos muitos papéis, independente das pessoas. Então aqui
[01:06:33] independente das pessoas. Então aqui temos muitos papéis. Por exemplo, os
[01:06:34] temos muitos papéis. Por exemplo, os cientistas podem ajudar na integração
[01:06:36] cientistas podem ajudar na integração das considerações éticas, na discussão
[01:06:38] das considerações éticas, na discussão de políticas públicas, no debate público
[01:06:41] de políticas públicas, no debate público ou numa coisa tão simples quanto
[01:06:43] ou numa coisa tão simples quanto apresentar uma palestra como essa aqui
[01:06:44] apresentar uma palestra como essa aqui hoje, que eu fico feliz de ter todos os
[01:06:46] hoje, que eu fico feliz de ter todos os assentos lotados, que é a primeira vez
[01:06:48] assentos lotados, que é a primeira vez que eu vejo, tem gente até em pé, né?
[01:06:51] que eu vejo, tem gente até em pé, né? Obrigado, Marcos. [risadas]
[01:06:55] E os cidadãos
[01:06:57] E os cidadãos pensando, precisamos pensar na
[01:06:58] pensando, precisamos pensar na participação de cada indivíduo.
[01:07:01] participação de cada indivíduo. Pensamos na alfabetização da IA. Durante
[01:07:04] Pensamos na alfabetização da IA. Durante muitos anos, o Brasil viveu e vive um
[01:07:07] muitos anos, o Brasil viveu e vive um problema da educação tradicional e agora
[01:07:09] problema da educação tradicional e agora já vem esse grande desafio tecnológico.
[01:07:13] já vem esse grande desafio tecnológico. Se nós não resolvemos a educação
[01:07:14] Se nós não resolvemos a educação clássica, como é que nós vamos resolver
[01:07:15] clássica, como é que nós vamos resolver agora a alfabetização tecnológica? Nós
[01:07:18] agora a alfabetização tecnológica? Nós tínhamos os chamados analfabetos, depois
[01:07:20] tínhamos os chamados analfabetos, depois tínhamos os analfabetos que não
[01:07:22] tínhamos os analfabetos que não conseguiam lei e entender, né? E agora
[01:07:26] conseguiam lei e entender, né? E agora os funcionais e agora temos os
[01:07:27] os funcionais e agora temos os tecnológicos.
[01:07:29] tecnológicos. Isso deve ser preocupação das eleições
[01:07:33] Isso deve ser preocupação das eleições e não se a gente vai libertar o pai da
[01:07:34] e não se a gente vai libertar o pai da cadeia.
[01:07:36] cadeia. É fato, gente.
[01:07:39] É fato, gente. Participação política. Pressionar
[01:07:40] Participação política. Pressionar representantes eleitos por legislação e
[01:07:42] representantes eleitos por legislação e supervisão adequada aos sistemas de A
[01:07:44] supervisão adequada aos sistemas de A que afetam a vida cotidiana.
[01:07:47] que afetam a vida cotidiana. Consumo consciente,
[01:07:50] Consumo consciente, vocês compram no dia a dia, realmente
[01:07:52] vocês compram no dia a dia, realmente vocês precisam?
[01:07:55] vocês precisam? Tudo que a gente compra, a gente
[01:07:56] Tudo que a gente compra, a gente realmente precisa. Pensem nisso.
[01:08:00] realmente precisa. Pensem nisso. Então, temos uma responsabilidade
[01:08:01] Então, temos uma responsabilidade compartilhada como pesquisadores,
[01:08:02] compartilhada como pesquisadores, instituições, formuladores de políticas,
[01:08:05] instituições, formuladores de políticas, cidadãos.
[01:08:08] cidadãos. Trazendo então essa perspectiva mais
[01:08:09] Trazendo então essa perspectiva mais ampla pra gente concluir, temos uma
[01:08:12] ampla pra gente concluir, temos uma responsabilidade para essa tecnologia.
[01:08:16] responsabilidade para essa tecnologia. Temos muitas escolhas morais coletivas.
[01:08:20] Temos muitas escolhas morais coletivas. Como dizia Carl Seigan, em 1990, a sonda
[01:08:24] Como dizia Carl Seigan, em 1990, a sonda Voyager One
[01:08:26] Voyager One voltou sua câmera para terra a pedido do
[01:08:29] voltou sua câmera para terra a pedido do astrônomo Cagan
[01:08:31] astrônomo Cagan e a imagem resultante mostrou o nosso
[01:08:33] e a imagem resultante mostrou o nosso planeta como um ponto diminuto de luz,
[01:08:35] planeta como um ponto diminuto de luz, suspenso em um raio de sol, mostrando a
[01:08:38] suspenso em um raio de sol, mostrando a vastidão do espaço.
[01:08:41] vastidão do espaço. Semana passada nós tivemos a repetição
[01:08:43] Semana passada nós tivemos a repetição dessa foto linda e histórica.
[01:08:48] dessa foto linda e histórica. Então, Calseiga nos convida, olhe
[01:08:49] Então, Calseiga nos convida, olhe novamente para esse ponto. É aqui,
[01:08:54] novamente para esse ponto. É aqui, é o lar.
[01:08:56] é o lar. Nele, eh, somos nós, né? Nele, todos os
[01:09:00] Nele, eh, somos nós, né? Nele, todos os que você ama, todos os que você conhece.
[01:09:06] Todo ser humano que já viveu, cada amor,
[01:09:09] Todo ser humano que já viveu, cada amor, cada criação, cada tragédia, cada
[01:09:12] cada criação, cada tragédia, cada triunfo da nossa espécie aconteceu nesse
[01:09:16] triunfo da nossa espécie aconteceu nesse ponto.
[01:09:17] ponto. Toda a civilização, toda a cultura, toda
[01:09:19] Toda a civilização, toda a cultura, toda a filosofia, toda ciência, toda arte,
[01:09:22] a filosofia, toda ciência, toda arte, toda a herança da humanidade está nesse
[01:09:24] toda a herança da humanidade está nesse ponto.
[01:09:27] ponto. toda a ideia, incluindo as ideias sobre
[01:09:28] toda a ideia, incluindo as ideias sobre a IA que hoje debatemos aqui e que
[01:09:31] a IA que hoje debatemos aqui e que moldarão o futuro, estão nesse ponto.
[01:09:38] [roncando]
[01:09:38] [roncando] E nesse ponto nós temos,
[01:09:42] E nesse ponto nós temos, para com esse ponto nós temos uma grande
[01:09:43] para com esse ponto nós temos uma grande responsabilidade. Não devemos pensar que
[01:09:45] responsabilidade. Não devemos pensar que vamos sair desse planeta para ir para
[01:09:47] vamos sair desse planeta para ir para outro e aí tá salvo. Não, não tá. Se
[01:09:50] outro e aí tá salvo. Não, não tá. Se nós, entre aspas, fodemos com um
[01:09:52] nós, entre aspas, fodemos com um planeta, por que que garante que nós não
[01:09:54] planeta, por que que garante que nós não vamos fazer o mesmo com outro?
[01:09:57] vamos fazer o mesmo com outro? É fato.
[01:10:00] É fato. Então não encarem aqui como
[01:10:04] Então não encarem aqui como simplesmente uma ferramenta, gente. A
[01:10:05] simplesmente uma ferramenta, gente. A lição, propósito geral, é política, ela
[01:10:09] lição, propósito geral, é política, ela tem implicações.
[01:10:11] tem implicações. O futuro, então, está aberto, a ação não
[01:10:14] O futuro, então, está aberto, a ação não está pré-determinada. Essa é uma
[01:10:16] está pré-determinada. Essa é uma mensagem de esperança minha que eu
[01:10:18] mensagem de esperança minha que eu queria trazer para vocês e de
[01:10:20] queria trazer para vocês e de responsabilidade. O fato é que o futuro
[01:10:23] responsabilidade. O fato é que o futuro aberto significa que nós temos escolhas
[01:10:25] aberto significa que nós temos escolhas que importam profundamente. Não é só
[01:10:27] que importam profundamente. Não é só escolher qual é o parâmetro do fine
[01:10:28] escolher qual é o parâmetro do fine tuning, tá?
[01:10:32] tuning, tá? Então, precisamos rejeitar o fatalismo
[01:10:33] Então, precisamos rejeitar o fatalismo tecnológico, a narrativa de mercado, que
[01:10:36] tecnológico, a narrativa de mercado, que o mercado sozinho resolve tudo, não
[01:10:38] o mercado sozinho resolve tudo, não resolve. Isso aqui já erramos uma vez,
[01:10:40] resolve. Isso aqui já erramos uma vez, já erramos duas vezes e não podemos
[01:10:42] já erramos duas vezes e não podemos errar de novo. Não tem autorregulação,
[01:10:46] errar de novo. Não tem autorregulação, precisa da participação política.
[01:10:48] precisa da participação política. Existem ciclos de hype, existem essas
[01:10:50] Existem ciclos de hype, existem essas visões bilionárias que tentam nos
[01:10:53] visões bilionárias que tentam nos impedir de regulamentar a tecnologia,
[01:10:56] impedir de regulamentar a tecnologia, mas ela, a tecnologia, a sociedade
[01:10:58] mas ela, a tecnologia, a sociedade precisa atuar diretamente, ativamente
[01:11:01] precisa atuar diretamente, ativamente nessa tecnologia para termos o que nós
[01:11:03] nessa tecnologia para termos o que nós precisamos. Precisamos então abraçar a
[01:11:06] precisamos. Precisamos então abraçar a nossa responsabilidade,
[01:11:08] nossa responsabilidade, buscando mais conhecimento, melhor
[01:11:10] buscando mais conhecimento, melhor saúde, instituições mais fortes e
[01:11:13] saúde, instituições mais fortes e oportunidades expandidas. Mensagem final
[01:11:15] oportunidades expandidas. Mensagem final para vocês.
[01:11:18] para vocês. Pode parecer tec, exagerado, mas para
[01:11:22] Pode parecer tec, exagerado, mas para preaturas tão pequenas como nós, a
[01:11:25] preaturas tão pequenas como nós, a vastidão só é suportável através do amor
[01:11:27] vastidão só é suportável através do amor quando a gente entender que nesse ponto
[01:11:29] quando a gente entender que nesse ponto azul todo mundo é igual. Obrigado.
[01:11:32] azul todo mundo é igual. Obrigado. [aplausos]
[01:11:44] Vamos lá. Podemos responder perguntas?
[01:11:46] Vamos lá. Podemos responder perguntas? Temos, sei lá, 15 minutos.
[01:11:50] Temos, sei lá, 15 minutos. Eu
[01:11:52] Eu tenho.
[01:11:53] tenho. >> Diga, Paul.
[01:11:59] >> Pode contando essa que você já fez
[01:12:02] >> Pode contando essa que você já fez [risadas]
[01:12:07] duas perguntas, então. Três, né?
[01:12:11] duas perguntas, então. Três, né? Eh, a primeira, eu vou falar sequência
[01:12:14] Eh, a primeira, eu vou falar sequência para não ficar falando muito tempo. A
[01:12:17] para não ficar falando muito tempo. A primeira que eu sempre me pergunto
[01:12:20] primeira que eu sempre me pergunto assim, né? Eh, quando eu entrei aqui num
[01:12:23] assim, né? Eh, quando eu entrei aqui num laboratório de, né, docode, eu tinha uma
[01:12:26] laboratório de, né, docode, eu tinha uma resistência absurda
[01:12:28] resistência absurda [limpando a garganta]
[01:12:29] [limpando a garganta] em usar a inteligência artificial,
[01:12:31] em usar a inteligência artificial, [risadas] usar no sentido, né, usuário,
[01:12:34] [risadas] usar no sentido, né, usuário, porque eu pensava, cara, eu vou ficar
[01:12:36] porque eu pensava, cara, eu vou ficar burra. Eu só pensava nisso, eu vou ficar
[01:12:39] burra. Eu só pensava nisso, eu vou ficar burra. vou ficar burra. E eu sempre tive
[01:12:42] burra. vou ficar burra. E eu sempre tive assim, eh, essa orgulho de ser criativa.
[01:12:46] assim, eh, essa orgulho de ser criativa. E aí quando eu vi algo que, pô, é
[01:12:49] E aí quando eu vi algo que, pô, é criativo também e faz coisas muito mais
[01:12:51] criativo também e faz coisas muito mais rápidas do que eu, eu me senti muito
[01:12:53] rápidas do que eu, eu me senti muito péssima. Bom, dito isso, eh, primeira
[01:12:57] péssima. Bom, dito isso, eh, primeira questão que eu vou perguntar a você é
[01:13:00] questão que eu vou perguntar a você é como é que o que eu me pergunto sempre,
[01:13:03] como é que o que eu me pergunto sempre, como é que a gente vai desenvolver
[01:13:05] como é que a gente vai desenvolver a nossa inteligência de carne? Tipo
[01:13:08] a nossa inteligência de carne? Tipo assim,
[01:13:09] assim, esse ser humano que tá em frente a essa,
[01:13:13] esse ser humano que tá em frente a essa, né, a Iá, que é uma inteligência cílica,
[01:13:17] né, a Iá, que é uma inteligência cílica, né,
[01:13:20] né, o o como é que como o qual é o como é
[01:13:22] o o como é que como o qual é o como é que como é que eu preparo esse porque
[01:13:24] que como é que eu preparo esse porque assim, a gente fala de criança,
[01:13:26] assim, a gente fala de criança, obviamente, né? As crianças, eu também
[01:13:28] obviamente, né? As crianças, eu também penso muito nisso, na educação, mas a
[01:13:31] penso muito nisso, na educação, mas a gente também, porque a gente não para de
[01:13:33] gente também, porque a gente não para de aprender, né? Não é porque eu tô, né,
[01:13:35] aprender, né? Não é porque eu tô, né, mais velha que eu não aprendo. Eu tô
[01:13:36] mais velha que eu não aprendo. Eu tô sempre aprendendo. Só que é um aprender
[01:13:38] sempre aprendendo. Só que é um aprender diferente. E aí eu fico pensando, tá,
[01:13:41] diferente. E aí eu fico pensando, tá, como é que minha cabeça de carne, eh,
[01:13:44] como é que minha cabeça de carne, eh, como é que eu vou preparar minha cabeça
[01:13:45] como é que eu vou preparar minha cabeça de carne para para isso? Não sei se é a
[01:13:47] de carne para para isso? Não sei se é a primeira pergunta. E a segunda pergunta
[01:13:49] primeira pergunta. E a segunda pergunta [limpando a garganta]
[01:13:51] [limpando a garganta] é provocativa também, tá? Você botou aí
[01:13:54] é provocativa também, tá? Você botou aí na em um dos slides, você falou assim, o
[01:13:57] na em um dos slides, você falou assim, o ponto forte da cognição humana.
[01:14:01] ponto forte da cognição humana. E aí num cenário lindo, ah, ética, não
[01:14:05] E aí num cenário lindo, ah, ética, não sei o quê, eu olhei aquilo, eu falei:
[01:14:07] sei o quê, eu olhei aquilo, eu falei: "Gente, nem parece que ele tá falando do
[01:14:09] "Gente, nem parece que ele tá falando do mundo que eu vivo". [risadas] Entendeu?
[01:14:12] mundo que eu vivo". [risadas] Entendeu? Aonde que o anda su anda? Porque não é o
[01:14:13] Aonde que o anda su anda? Porque não é o mesmo lugar que eu vivo.
[01:14:16] mesmo lugar que eu vivo. Ética,
[01:14:18] Ética, justiça.
[01:14:19] justiça. >> Sim.
[01:14:20] >> Sim. >> O mundo não é nada disso, Anderson.
[01:14:22] >> O mundo não é nada disso, Anderson. >> É,
[01:14:23] >> É, >> entendeu? Não, não é. a gente cria
[01:14:25] >> entendeu? Não, não é. a gente cria algumas regrinhas para achar que ético,
[01:14:28] algumas regrinhas para achar que ético, achar que é justo, achar que é isso. Na
[01:14:30] achar que é justo, achar que é isso. Na real, o mundo não é nada disso,
[01:14:33] real, o mundo não é nada disso, entendeu? Não é nada disso. Então, a
[01:14:35] entendeu? Não é nada disso. Então, a pergunta que eu faço a você é porque
[01:14:37] pergunta que eu faço a você é porque assim, quanto mais eu penso, mais eu que
[01:14:39] assim, quanto mais eu penso, mais eu que eu vejo que o problema tá realmente no
[01:14:41] eu vejo que o problema tá realmente no sistema. Se nós tivéssemos a
[01:14:44] sistema. Se nós tivéssemos a inteligência artificial numa sociedade
[01:14:49] inteligência artificial numa sociedade coletiv que que era porque o início da
[01:14:51] coletiv que que era porque o início da humanidade foi no coletivo, entendeu? Aí
[01:14:55] humanidade foi no coletivo, entendeu? Aí o negócio descambou de um jeito, não tô
[01:14:58] o negócio descambou de um jeito, não tô fazendo crítica, tá? Eu só tô pensando,
[01:15:01] fazendo crítica, tá? Eu só tô pensando, [risadas] então, enfim. Eh, né? Então,
[01:15:04] [risadas] então, enfim. Eh, né? Então, mas aí é que tá. E [limpando a garganta]
[01:15:05] mas aí é que tá. E [limpando a garganta] se essa se essa isso aí a inteligência
[01:15:08] se essa se essa isso aí a inteligência artificial surgisse na época
[01:15:12] artificial surgisse na época eh que a no início da humanidade,
[01:15:14] eh que a no início da humanidade, digamos assim, no coletivo, em que é
[01:15:16] digamos assim, no coletivo, em que é isso, a colaboração, a justiça, a ética
[01:15:20] isso, a colaboração, a justiça, a ética reina, não teríamos problema. A questão
[01:15:23] reina, não teríamos problema. A questão é que a gente criou um negócio muito
[01:15:26] é que a gente criou um negócio muito absurdo que tá ultrapassando as nossas
[01:15:28] absurdo que tá ultrapassando as nossas capacidades
[01:15:30] capacidades em uma sociedade que não tem
[01:15:32] em uma sociedade que não tem consciência.
[01:15:33] consciência. É, esse é o ponto. Então, é, eh, a
[01:15:36] É, esse é o ponto. Então, é, eh, a pergunta era sobre isso.
[01:15:38] pergunta era sobre isso. >> Muito bom. Bom,
[01:15:39] >> Muito bom. Bom, >> obrigado. Eh, primeira coisa, como que a
[01:15:42] >> obrigado. Eh, primeira coisa, como que a gente pode desenvolver
[01:15:43] gente pode desenvolver o nosso nossa inteligência natural,
[01:15:46] o nosso nossa inteligência natural, digamos assim, né? É uma pergunta super
[01:15:48] digamos assim, né? É uma pergunta super difícil. Ah, cada um tem seu caminho,
[01:15:52] difícil. Ah, cada um tem seu caminho, né? Eu diria que existem algumas dicas
[01:15:54] né? Eu diria que existem algumas dicas que a gente pode dar de forma geral e
[01:15:56] que a gente pode dar de forma geral e existem aquelas questões que vai
[01:15:57] existem aquelas questões que vai depender de cada uma das pessoas. Dicas
[01:15:59] depender de cada uma das pessoas. Dicas gerais, por exemplo, eu acho que o que
[01:16:02] gerais, por exemplo, eu acho que o que nos diferencia é o pensamento crítico e
[01:16:04] nos diferencia é o pensamento crítico e o pensamento empático, a ação empática.
[01:16:08] o pensamento empático, a ação empática. Como é que você desenvolve isso? Se
[01:16:10] Como é que você desenvolve isso? Se colocando em situações as mais
[01:16:11] colocando em situações as mais diferentes possíveis. A maneira mais
[01:16:13] diferentes possíveis. A maneira mais barata de se colocar em situações mais
[01:16:15] barata de se colocar em situações mais diferentes possíveis é interagir com
[01:16:16] diferentes possíveis é interagir com pessoas e ler.
[01:16:19] pessoas e ler. Então eu acho que quanto mais você lê,
[01:16:21] Então eu acho que quanto mais você lê, quanto mais você aprende, quanto mais
[01:16:22] quanto mais você aprende, quanto mais você interage com diferentes pessoas,
[01:16:23] você interage com diferentes pessoas, com pessoas que são diferentes de você,
[01:16:25] com pessoas que são diferentes de você, que pensam diferente de você, vai fazer
[01:16:27] que pensam diferente de você, vai fazer com que você consiga desenvolver esse
[01:16:29] com que você consiga desenvolver esse pensamento crítico, esse pensamento
[01:16:31] pensamento crítico, esse pensamento empático, entender um pouco melhor o
[01:16:33] empático, entender um pouco melhor o mundo.
[01:16:34] mundo. Ah, e aí depende, por exemplo, eu
[01:16:39] Ah, e aí depende, por exemplo, eu pratico algo que me ajuda a viver nesse
[01:16:41] pratico algo que me ajuda a viver nesse mundo muito bem. Eu eu pratico
[01:16:43] mundo muito bem. Eu eu pratico meditação, eu me conheço, eu tento me
[01:16:46] meditação, eu me conheço, eu tento me conhecer cada vez mais e isso me
[01:16:47] conhecer cada vez mais e isso me desenvolve, tá? É um processo contínuo e
[01:16:51] desenvolve, tá? É um processo contínuo e não tem um ponto de chegada.
[01:16:53] não tem um ponto de chegada. Ah, da mesma forma, faço yoga também, é
[01:16:56] Ah, da mesma forma, faço yoga também, é a mesma coisa, é um desenvolvimento
[01:16:57] a mesma coisa, é um desenvolvimento contínuo, não tem um ponto de chegada.
[01:17:00] contínuo, não tem um ponto de chegada. Ah, mas para outras pessoas, eh, elas
[01:17:02] Ah, mas para outras pessoas, eh, elas conseguem ter o mesmo tipo de
[01:17:04] conseguem ter o mesmo tipo de crescimento, por exemplo, eh, a partir
[01:17:07] crescimento, por exemplo, eh, a partir da prática de esportes.
[01:17:09] da prática de esportes. Eh, aí depende, mas eu acho que a sua
[01:17:12] Eh, aí depende, mas eu acho que a sua pergunta é muito pertinente, porque é o
[01:17:14] pergunta é muito pertinente, porque é o que a gente pensa para as gerações
[01:17:15] que a gente pensa para as gerações futuras. Como é que eu vou ensinar meus
[01:17:17] futuras. Como é que eu vou ensinar meus filhos, né, a a ser mais consciente,
[01:17:21] filhos, né, a a ser mais consciente, crítico e ter mais relevância nesse
[01:17:23] crítico e ter mais relevância nesse mundo? Eu acho que a gente tá numa época
[01:17:24] mundo? Eu acho que a gente tá numa época que, embora haja uma diminuição, uma
[01:17:28] que, embora haja uma diminuição, uma tentativa de diminuição da importância
[01:17:30] tentativa de diminuição da importância do estudo, eu acho que o estudo hoje é
[01:17:33] do estudo, eu acho que o estudo hoje é mais importante do que sempre foi,
[01:17:36] mais importante do que sempre foi, porque se você cair nessa narrativa de
[01:17:38] porque se você cair nessa narrativa de tiktokers de que estudar não é
[01:17:41] tiktokers de que estudar não é necessário, você será irrelevante.
[01:17:44] necessário, você será irrelevante. Isso é fato, tá?
[01:17:47] Isso é fato, tá? a sua pergunta sobre seu, você já falou
[01:17:51] a sua pergunta sobre seu, você já falou isso para mim algumas vezes, você me
[01:17:52] isso para mim algumas vezes, você me acha muito otimista com a vida, né? Bom,
[01:17:54] acha muito otimista com a vida, né? Bom, [roncando] talvez seja a minha visão
[01:17:56] [roncando] talvez seja a minha visão budista, não sei, mas eu eu acredito na
[01:17:59] budista, não sei, mas eu eu acredito na humanidade. Eu sei que existem muitas
[01:18:01] humanidade. Eu sei que existem muitas coisas feias e muito ruins. Eh, mas
[01:18:05] coisas feias e muito ruins. Eh, mas quando a gente compara com o que nós
[01:18:06] quando a gente compara com o que nós tínhamos de sociedade 200 anos atrás, é
[01:18:09] tínhamos de sociedade 200 anos atrás, é impressionante como a gente tem uma
[01:18:10] impressionante como a gente tem uma sociedade mais evoluída. Se a gente
[01:18:12] sociedade mais evoluída. Se a gente comparar com esse mundo que você colocou
[01:18:14] comparar com esse mundo que você colocou lá dos primórdios, de caçadores,
[01:18:16] lá dos primórdios, de caçadores, coletores, você tem uma visão idealizada
[01:18:19] coletores, você tem uma visão idealizada lá, Rousseau, de que se nós formos
[01:18:22] lá, Rousseau, de que se nós formos selvagens, vamos ser mais naturais e
[01:18:25] selvagens, vamos ser mais naturais e vamos ter a beleza no coração. Não é
[01:18:27] vamos ter a beleza no coração. Não é verdade? Não é verdade isso. A gente tem
[01:18:31] verdade? Não é verdade isso. A gente tem poucos indícios de que essas sociedades
[01:18:35] poucos indícios de que essas sociedades antigas eram muito mais justas do que a
[01:18:38] antigas eram muito mais justas do que a nossa. Nós temos mesmo na América, nós
[01:18:41] nossa. Nós temos mesmo na América, nós tivemos inúmeras sociedades que se
[01:18:43] tivemos inúmeras sociedades que se comiam.
[01:18:46] comiam. Eles se comiam carne humana. Hoje a
[01:18:49] Eles se comiam carne humana. Hoje a gente não come mais. Isso é uma grande
[01:18:51] gente não come mais. Isso é uma grande evolução enquanto sociedade. Então temos
[01:18:52] evolução enquanto sociedade. Então temos problemas de preconceito, vieses,
[01:18:55] problemas de preconceito, vieses, machismo, machosfera, pílula azul, monte
[01:18:59] machismo, machosfera, pílula azul, monte de coisa temos.
[01:19:01] de coisa temos. E justamente porque nós estamos
[01:19:02] E justamente porque nós estamos discutindo isso, eu acho que nós temos
[01:19:05] discutindo isso, eu acho que nós temos chance de um futuro melhor, porque se
[01:19:07] chance de um futuro melhor, porque se isso tivesse debaixo do tapete, aí sim o
[01:19:09] isso tivesse debaixo do tapete, aí sim o futuro seria pior. Então, eh, pode ser
[01:19:12] futuro seria pior. Então, eh, pode ser uma visão otimista, mas eu costumo
[01:19:14] uma visão otimista, mas eu costumo chamar que ela é um pouco realista de
[01:19:17] chamar que ela é um pouco realista de que se a gente tá colocando isso na mesa
[01:19:19] que se a gente tá colocando isso na mesa e discutindo agora, porque a gente tem
[01:19:21] e discutindo agora, porque a gente tem chance de mudar.
[01:19:23] chance de mudar. Próximo.
[01:19:28] Eh, muito obrigado primeiro pela
[01:19:31] Eh, muito obrigado primeiro pela palestra, né? Eu acho que eh nunca tive
[01:19:35] palestra, né? Eu acho que eh nunca tive a oportunidade de ver dessa forma
[01:19:36] a oportunidade de ver dessa forma inteligência artificial. Eh, de certa
[01:19:38] inteligência artificial. Eh, de certa forma isso eh mudou a minha visão de de
[01:19:42] forma isso eh mudou a minha visão de de mundo, principalmente sobre a como a
[01:19:46] mundo, principalmente sobre a como a gente pode evoluir, né?
[01:19:50] Mas ao mesmo tempo a minha pergunta é no
[01:19:52] Mas ao mesmo tempo a minha pergunta é no sentido de que, tipo, quando eu entrei
[01:19:55] sentido de que, tipo, quando eu entrei na faculdade, acho que quando a gente
[01:19:56] na faculdade, acho que quando a gente entra na faculdade, a gente tá buscando
[01:19:59] entra na faculdade, a gente tá buscando ã conhecimento e a gente vai trocar esse
[01:20:01] ã conhecimento e a gente vai trocar esse conhecimento por dinheiro, porque
[01:20:03] conhecimento por dinheiro, porque basicamente a gente tá garantindo que
[01:20:05] basicamente a gente tá garantindo que esse conhecimento que a gente tem
[01:20:06] esse conhecimento que a gente tem prático eh não é tão simples de ser
[01:20:10] prático eh não é tão simples de ser encontrado, por isso que ele tem valor.
[01:20:13] encontrado, por isso que ele tem valor. E em contrapartida, né? Então, quando
[01:20:16] E em contrapartida, né? Então, quando foi no terceiro ano, do segundo pro
[01:20:19] foi no terceiro ano, do segundo pro terceiro ano, eu consegui um trabalho eh
[01:20:22] terceiro ano, eu consegui um trabalho eh de programação.
[01:20:24] de programação. E eu sei que o meu conhecimento que eu
[01:20:26] E eu sei que o meu conhecimento que eu tava vendendo aquele no começo, hoje não
[01:20:29] tava vendendo aquele no começo, hoje não tem mais valor nenhum porque a gente
[01:20:32] tem mais valor nenhum porque a gente consegue fazer a o front end muito mais
[01:20:35] consegue fazer a o front end muito mais facilmente. A gente vai aprendendo
[01:20:38] facilmente. A gente vai aprendendo outras coisas. E hoje, tipo, hoje pela
[01:20:42] outras coisas. E hoje, tipo, hoje pela manhã, eu coloquei um projeto no agente
[01:20:44] manhã, eu coloquei um projeto no agente de A lá e eu pedi para ele fazer
[01:20:46] de A lá e eu pedi para ele fazer arquitetura e ele fez arquitetura
[01:20:47] arquitetura e ele fez arquitetura perfeita. E aí, tipo, eu fiquei até com
[01:20:50] perfeita. E aí, tipo, eu fiquei até com vergonha daquilo que eu tava propondo.
[01:20:52] vergonha daquilo que eu tava propondo. [risadas]
[01:20:53] [risadas] Então, eu fiz alguns ajustes só, mas eu
[01:20:56] Então, eu fiz alguns ajustes só, mas eu senti que o meu conhecimento não tem
[01:20:58] senti que o meu conhecimento não tem mais valor nesse sentido, que a qualquer
[01:21:01] mais valor nesse sentido, que a qualquer momento o que eu tinha construído não tá
[01:21:05] momento o que eu tinha construído não tá valendo nada hoje. Então, a minha
[01:21:08] valendo nada hoje. Então, a minha pergunta é, sabendo de ou tendo uma
[01:21:12] pergunta é, sabendo de ou tendo uma ideia de para onde a IA ela realmente tá
[01:21:15] ideia de para onde a IA ela realmente tá seguindo, o que que eu posso adquirir de
[01:21:18] seguindo, o que que eu posso adquirir de conhecimento que realmente seja valioso?
[01:21:22] conhecimento que realmente seja valioso? >> Boa. Primeira coisa, essa pergunta me
[01:21:25] >> Boa. Primeira coisa, essa pergunta me fizeram também recentemente,
[01:21:28] fizeram também recentemente, eh, onde você pode ser mais diferencial?
[01:21:32] eh, onde você pode ser mais diferencial? Com certeza não em algo que é repetível.
[01:21:36] Com certeza não em algo que é repetível. Tá? E por que que a Iá tá fazendo
[01:21:38] Tá? E por que que a Iá tá fazendo sucesso, por exemplo, o exemplo que você
[01:21:40] sucesso, por exemplo, o exemplo que você deu em desenvolvimento de código? Porque
[01:21:42] deu em desenvolvimento de código? Porque queira você ou não, por mais que a gente
[01:21:44] queira você ou não, por mais que a gente transforme isso em algo místico,
[01:21:47] transforme isso em algo místico, historicamente desenvolvimento de código
[01:21:49] historicamente desenvolvimento de código era pelo menos 80% repetição.
[01:21:52] era pelo menos 80% repetição. Era a diferença é que você fazia Google
[01:21:55] Era a diferença é que você fazia Google ou você ia no stack overflow ou você ia
[01:21:57] ou você ia no stack overflow ou você ia no GTHub, mas era repetição. E por que
[01:21:59] no GTHub, mas era repetição. E por que que a tá fazendo muito sucesso aqui?
[01:22:01] que a tá fazendo muito sucesso aqui? Porque ela viu a partir de zilhões de
[01:22:03] Porque ela viu a partir de zilhões de linha de código que era possível
[01:22:04] linha de código que era possível replicar essa repetição. Beleza?
[01:22:07] replicar essa repetição. Beleza? Então não fique assustado que ela tá
[01:22:09] Então não fique assustado que ela tá desenvolvendo o código. Muito bem. Ótimo
[01:22:11] desenvolvendo o código. Muito bem. Ótimo que ela tá fazendo essa esse
[01:22:12] que ela tá fazendo essa esse desenvolvimento do código porque garante
[01:22:14] desenvolvimento do código porque garante que você possa pensar outras coisas. O
[01:22:16] que você possa pensar outras coisas. O quê?
[01:22:17] quê? Aí você tem que ter a sua criatividade,
[01:22:20] Aí você tem que ter a sua criatividade, porque a sua criatividade agora ela
[01:22:21] porque a sua criatividade agora ela aumenta de capacidade, porque agora o
[01:22:23] aumenta de capacidade, porque agora o desenvolvimento do código paraa sua
[01:22:24] desenvolvimento do código paraa sua capacidade não é limitado.
[01:22:28] capacidade não é limitado. Você não precisa perder tempo agora para
[01:22:30] Você não precisa perder tempo agora para trazer aquela sua ideia pra realidade. O
[01:22:33] trazer aquela sua ideia pra realidade. O seu tempo tem que ser agora em como
[01:22:35] seu tempo tem que ser agora em como criar algo novo, como editar o que é
[01:22:38] criar algo novo, como editar o que é criado, como fazer aquilo que é criado,
[01:22:41] criado, como fazer aquilo que é criado, gerar valor. Isso aí não vai fazer para
[01:22:42] gerar valor. Isso aí não vai fazer para você. Mas uma vez que você tiver a sua
[01:22:44] você. Mas uma vez que você tiver a sua ideia e você começar a interagir
[01:22:47] ideia e você começar a interagir com um agente desse, por exemplo, você
[01:22:50] com um agente desse, por exemplo, você pode lapidar a sua ideia e realmente
[01:22:52] pode lapidar a sua ideia e realmente trazer algo à vida muito mais
[01:22:54] trazer algo à vida muito mais rapidamente, tá? Então assim, é óbvio
[01:22:57] rapidamente, tá? Então assim, é óbvio que qualquer pessoa que entra na
[01:22:58] que qualquer pessoa que entra na computação hoje fala: "Professor, meu
[01:23:00] computação hoje fala: "Professor, meu sonho é ser programador". falar: "Não,
[01:23:02] sonho é ser programador". falar: "Não, meu amigo, pelo amor de Deus, não seja
[01:23:04] meu amigo, pelo amor de Deus, não seja programador, porque o programador já tá
[01:23:06] programador, porque o programador já tá resolvido." Você tem que ser algo muito
[01:23:11] resolvido." Você tem que ser algo muito diferente de um programador básico. Você
[01:23:12] diferente de um programador básico. Você tem que ser algo, uma pessoa que lida
[01:23:14] tem que ser algo, uma pessoa que lida criticamente para sua e aí tem novas
[01:23:17] criticamente para sua e aí tem novas profissões saindo, tem pessoas que fazem
[01:23:20] profissões saindo, tem pessoas que fazem auditoria de código, verificação de
[01:23:23] auditoria de código, verificação de cybersegurança,
[01:23:24] cybersegurança, eh auditoria de justiça algorítmica.
[01:23:27] eh auditoria de justiça algorítmica. Tudo isso são novas profissões que estão
[01:23:29] Tudo isso são novas profissões que estão nascendo justamente porque a partir do
[01:23:31] nascendo justamente porque a partir do momento que você tem a automação do
[01:23:32] momento que você tem a automação do processo de geração de código, todos os
[01:23:34] processo de geração de código, todos os outros problemas crescem junto. Os
[01:23:36] outros problemas crescem junto. Os buracos de código, as falhas de
[01:23:38] buracos de código, as falhas de cbersegurança, a injustiça algorítmica,
[01:23:41] cbersegurança, a injustiça algorítmica, se você usou dados não eh curados para
[01:23:44] se você usou dados não eh curados para fazer eh esse desenvolvimento. Então,
[01:23:46] fazer eh esse desenvolvimento. Então, assim, minha sugestão, não se assuste.
[01:23:50] assim, minha sugestão, não se assuste. [roncando] É um momento que dá que é
[01:23:52] [roncando] É um momento que dá que é importante você pensar em como fazer a
[01:23:53] importante você pensar em como fazer a diferença. fazer a diferença aquilo que
[01:23:55] diferença. fazer a diferença aquilo que eu falei, é pensar fora da caixa, é
[01:23:58] eu falei, é pensar fora da caixa, é exercitar a sua capacidade de
[01:23:59] exercitar a sua capacidade de criatividade, de trabalhar em grupo
[01:24:02] criatividade, de trabalhar em grupo [limpando a garganta] coletivo. Isso é
[01:24:03] [limpando a garganta] coletivo. Isso é que eu acho que vai fazer diferença. As
[01:24:05] que eu acho que vai fazer diferença. As tarefas repetitivas, essas sim vão ser
[01:24:08] tarefas repetitivas, essas sim vão ser automatizadas,
[01:24:10] automatizadas, >> certo? Mas então eu deveria estudar o
[01:24:13] >> certo? Mas então eu deveria estudar o que assim, exatamente? [risadas]
[01:24:15] que assim, exatamente? [risadas] >> Adoraria,
[01:24:17] >> Adoraria, adoraria ter a resposta para você, mas
[01:24:20] adoraria ter a resposta para você, mas como você desenvolve a criatividade?
[01:24:22] como você desenvolve a criatividade? Como eu disse, isso funciona diferente
[01:24:25] Como eu disse, isso funciona diferente para pessoas diferentes. Vou te dar um
[01:24:27] para pessoas diferentes. Vou te dar um exemplo meu. Para mim
[01:24:30] exemplo meu. Para mim foi um momento definidor para mim na
[01:24:33] foi um momento definidor para mim na questão de criatividade, como lidar com
[01:24:35] questão de criatividade, como lidar com os meus alunos, como ter ideias fora da
[01:24:37] os meus alunos, como ter ideias fora da caixa para desenvolver pesquisa. Quando
[01:24:38] caixa para desenvolver pesquisa. Quando eu fiz história da arte, tem nada a ver
[01:24:41] eu fiz história da arte, tem nada a ver com votação, eu fiz durante a pandemia.
[01:24:44] com votação, eu fiz durante a pandemia. Isso me faz enxergar as coisas de
[01:24:45] Isso me faz enxergar as coisas de maneira diferente. Então, como é que
[01:24:46] maneira diferente. Então, como é que você, o que que você vai estudar? Eu não
[01:24:47] você, o que que você vai estudar? Eu não tô falando para você estudar história da
[01:24:48] tô falando para você estudar história da arte. Eu tô falando [risadas] para você
[01:24:50] arte. Eu tô falando [risadas] para você pensar coisas que te fazem pensar
[01:24:52] pensar coisas que te fazem pensar diferente. Ah, para você pode ser
[01:24:55] diferente. Ah, para você pode ser praticar karatê, por exemplo, não
[01:24:56] praticar karatê, por exemplo, não importa. Pode ser caminhar. Tira,
[01:24:58] importa. Pode ser caminhar. Tira, caminha na natureza. Isso já é provado.
[01:25:00] caminha na natureza. Isso já é provado. Caminhar na natureza uma hora por dia
[01:25:02] Caminhar na natureza uma hora por dia ajuda você a pensar coisas diferente, a
[01:25:04] ajuda você a pensar coisas diferente, a ligar pontos. Então você tem que tentar,
[01:25:08] ligar pontos. Então você tem que tentar, eu não tenho a resposta, mas é você
[01:25:11] eu não tenho a resposta, mas é você tentar se conhecer.
[01:25:13] tentar se conhecer. E se conhecer, pode ser via meditação,
[01:25:15] E se conhecer, pode ser via meditação, pode ser viaga, pode ser via budismo,
[01:25:17] pode ser viaga, pode ser via budismo, pode ser via catolicismo, mas é parar
[01:25:20] pode ser via catolicismo, mas é parar desligar do mundo, desligar as
[01:25:22] desligar do mundo, desligar as notificações do celular, pensar meia
[01:25:24] notificações do celular, pensar meia hora, uma hora em você. Isso ajuda a
[01:25:27] hora, uma hora em você. Isso ajuda a gente a crescer.
[01:25:30] gente a crescer. E arquitetura que aí você não precisou
[01:25:33] E arquitetura que aí você não precisou de seu conhecimento técnico, tô que foi
[01:25:35] de seu conhecimento técnico, tô que foi uma arquitetura boa ou chegar naquele
[01:25:37] uma arquitetura boa ou chegar naquele [roncando]
[01:25:39] [roncando] com certeza. Aí, ó, o seu valor tá ali.
[01:25:41] com certeza. Aí, ó, o seu valor tá ali. Ela, você acha que ela fez sozinha, mas
[01:25:43] Ela, você acha que ela fez sozinha, mas não teve a sua interação.
[01:25:49] >> Tem uma pergunta lá e perguntas no
[01:25:51] >> Tem uma pergunta lá e perguntas no YouTube. Lá lá primeiro
[01:25:53] YouTube. Lá lá primeiro >> tem uma proponente uma perguntações
[01:25:58] >> tem uma proponente uma perguntações aíos companheiros. Eu gosto muito de
[01:26:01] aíos companheiros. Eu gosto muito de pensar em poes, né? Então foi esse esse
[01:26:07] pensar em poes, né? Então foi esse esse espírito humano de criar a partir dos
[01:26:11] espírito humano de criar a partir dos sentimentos, [roncando] né, e dessa
[01:26:14] sentimentos, [roncando] né, e dessa experiência, né? E isso é uma uma
[01:26:17] experiência, né? E isso é uma uma questão que a não vai ser presente, né?
[01:26:21] questão que a não vai ser presente, né? Como
[01:26:23] Como >> poés,
[01:26:24] >> poés, >> poés é você usar sua experiência de
[01:26:26] >> poés é você usar sua experiência de vida, a sua forma como você se insere no
[01:26:28] vida, a sua forma como você se insere no mundo para criar. A consequência direta
[01:26:31] mundo para criar. A consequência direta do que ele tá falando é quanto mais
[01:26:32] do que ele tá falando é quanto mais experiências de vida você tiver, mais
[01:26:34] experiências de vida você tiver, mais criativo você será.
[01:26:35] criativo você será. >> É, exatamente. Então, eu gosto muito de
[01:26:38] >> É, exatamente. Então, eu gosto muito de pensar para essa ponência e atividades
[01:26:41] pensar para essa ponência e atividades mesmo, tipo criatividade,
[01:26:44] mesmo, tipo criatividade, eh, comunicação, cooperação, que acho
[01:26:47] eh, comunicação, cooperação, que acho que uma das mais importantes pensamento
[01:26:49] que uma das mais importantes pensamento crítico, né? Eh, isso é o que a gente
[01:26:53] crítico, né? Eh, isso é o que a gente deveria estar projetando para eh
[01:26:57] deveria estar projetando para eh precisamente inovar. Inovar em quê?
[01:26:59] precisamente inovar. Inovar em quê? todas essas tecnologias brandas, como
[01:27:03] todas essas tecnologias brandas, como duras, a arte uma tecnologia, a música
[01:27:06] duras, a arte uma tecnologia, a música uma tecnologia. Então a gente às vezes
[01:27:09] uma tecnologia. Então a gente às vezes se perdeu já o norte de de de que é uma
[01:27:12] se perdeu já o norte de de de que é uma tecnologia, né? Então [risadas]
[01:27:15] tecnologia, né? Então [risadas] eh é importante a gente recuperar esse
[01:27:18] eh é importante a gente recuperar esse esse esse espaço e hoje por hoje eu acho
[01:27:21] esse esse espaço e hoje por hoje eu acho que é muito importante. Aí eu agora
[01:27:24] que é muito importante. Aí eu agora estou num doutorado, né? Eu gosto muito
[01:27:26] estou num doutorado, né? Eu gosto muito de de como ele é abreviado, né? PhD, né,
[01:27:30] de de como ele é abreviado, né? PhD, né, filósofo doctor, né, mas a gente termina
[01:27:34] filósofo doctor, né, mas a gente termina fazendo uma uma tese de uma contribuição
[01:27:36] fazendo uma uma tese de uma contribuição técnica em uma área e isso já é
[01:27:39] técnica em uma área e isso já é considerado como filosofia e não é
[01:27:41] considerado como filosofia e não é filosofal. Então, a gente deveria de
[01:27:44] filosofal. Então, a gente deveria de novo retornar esse esse esse conceito da
[01:27:47] novo retornar esse esse esse conceito da filosofia, né, da criação de novos e
[01:27:50] filosofia, né, da criação de novos e discutir mais amplamente os impactos
[01:27:53] discutir mais amplamente os impactos daquilo que você faz. completamente.
[01:27:55] daquilo que você faz. completamente. >> Bom, assina embaixo que você tá falando
[01:27:58] >> Bom, assina embaixo que você tá falando [risadas]
[01:27:59] [risadas] >> aí. Aí está também o outro problema, né?
[01:28:02] >> aí. Aí está também o outro problema, né? Ou eu uma coisa que tá saindo agora, né?
[01:28:06] Ou eu uma coisa que tá saindo agora, né? Todos gostendema
[01:28:09] Todos gostendema do Silcon Bale, né?
[01:28:11] do Silcon Bale, né? CEO, eu sigo muito um canal que se chama
[01:28:14] CEO, eu sigo muito um canal que se chama o Diário do CEO. E eles trazem pessoal,
[01:28:20] o Diário do CEO. E eles trazem pessoal, vale, muito aberto e tal. E já ele tinha
[01:28:23] vale, muito aberto e tal. E já ele tinha falado sobre essa ideologia que que eles
[01:28:27] falado sobre essa ideologia que que eles eles têm muito lá. E é importante isso
[01:28:31] eles têm muito lá. E é importante isso porque eh há uns meses
[01:28:35] porque eh há uns meses eh falou Elon Mosque, falou o Harar
[01:28:39] eh falou Elon Mosque, falou o Harar jogando-se programas ontológicos, né, de
[01:28:42] jogando-se programas ontológicos, né, de que dando essas características humanas
[01:28:45] que dando essas características humanas a uma a uma máquina de inferência
[01:28:47] a uma a uma máquina de inferência estatística, né? Eh, isso, isso a gente
[01:28:51] estatística, né? Eh, isso, isso a gente tem que também cortar. E, eh, tudo isto
[01:28:56] tem que também cortar. E, eh, tudo isto também é importante, né, porque você
[01:28:59] também é importante, né, porque você mencionou agora sobre a foto da da da
[01:29:02] mencionou agora sobre a foto da da da terra, né? Bonito, lindo, certo? Mas não
[01:29:07] terra, né? Bonito, lindo, certo? Mas não venderam o show, né? Como uma coisa uau,
[01:29:11] venderam o show, né? Como uma coisa uau, tua a humanidade toda. Voltamos na lua.
[01:29:14] tua a humanidade toda. Voltamos na lua. chineses na lua com sonda tem eh eh como
[01:29:20] chineses na lua com sonda tem eh eh como se chama sistemas satelitais da parte
[01:29:23] se chama sistemas satelitais da parte oscura da lua, né,
[01:29:24] oscura da lua, né, >> para poder transmitir informação para
[01:29:26] >> para poder transmitir informação para cá. Oh, não ficaram 40 minutos sem
[01:29:30] cá. Oh, não ficaram 40 minutos sem comunicação, não, não cooperaram, sabe?
[01:29:33] comunicação, não, não cooperaram, sabe? Então o tema é uma questão política,
[01:29:35] Então o tema é uma questão política, >> com certeza
[01:29:36] >> com certeza >> é uma questão política. E você tá vendo
[01:29:38] >> é uma questão política. E você tá vendo muito sobre o negócio com a guerra. Eu
[01:29:41] muito sobre o negócio com a guerra. Eu falo, eu gosto de falar a guerra que tem
[01:29:45] falo, eu gosto de falar a guerra que tem Irã contra o império grego,
[01:29:48] Irã contra o império grego, [risadas] né? Porque porque eh é
[01:29:52] [risadas] né? Porque porque eh é [roncando] perigoso uma questão de
[01:29:54] [roncando] perigoso uma questão de infraestrutura e bias e eh não servir
[01:29:59] infraestrutura e bias e eh não servir para transportar que balas para
[01:30:02] para transportar que balas para inteligência artificial tá servindo para
[01:30:04] inteligência artificial tá servindo para enxergar o [roncando] com mais.
[01:30:07] enxergar o [roncando] com mais. rapidez e isso tá acontecendo na
[01:30:10] rapidez e isso tá acontecendo na atualidade. Sim,
[01:30:11] atualidade. Sim, >> né? Então acho que talvez uma pergunta
[01:30:14] >> né? Então acho que talvez uma pergunta que surgiria
[01:30:15] que surgiria >> com relação a isso é não só como o
[01:30:19] >> com relação a isso é não só como o Brasil, né? como parte de dessa América
[01:30:22] Brasil, né? como parte de dessa América Latina que que bom ou ruim tem sido eh
[01:30:27] Latina que que bom ou ruim tem sido eh aquela que pensa mais na paz, que pensa
[01:30:29] aquela que pensa mais na paz, que pensa mais na certo, que não tem esse esse
[01:30:32] mais na certo, que não tem esse esse conflito muito agressivo, né, com com o
[01:30:35] conflito muito agressivo, né, com com o resto do da humanidade. Como a gente
[01:30:38] resto do da humanidade. Como a gente deveria se enxergar, afetar esse esse
[01:30:41] deveria se enxergar, afetar esse esse nova realidade, né?
[01:30:44] nova realidade, né? >> Rapaz, as perguntas hoje são quentes,
[01:30:46] >> Rapaz, as perguntas hoje são quentes, né? [risadas]
[01:30:47] né? [risadas] como que a gente deve se enxergar
[01:30:49] como que a gente deve se enxergar enquanto a América Latina. Eh, primeiro
[01:30:51] enquanto a América Latina. Eh, primeiro que nós participamos de uma nova
[01:30:53] que nós participamos de uma nova colonização. Isso é um fato.
[01:30:55] colonização. Isso é um fato. Neocolonialismo
[01:30:57] Neocolonialismo acontece hoje. Já tivemos colonialismo
[01:30:59] acontece hoje. Já tivemos colonialismo na época eh da chegada dos europeus e
[01:31:02] na época eh da chegada dos europeus e hoje nós vivemos uma outra forma de
[01:31:04] hoje nós vivemos uma outra forma de colonialismo, seja para anotação de
[01:31:06] colonialismo, seja para anotação de dados, seja para uso de tecnologias.
[01:31:07] dados, seja para uso de tecnologias. Então, a gente precisa pensar, como você
[01:31:09] Então, a gente precisa pensar, como você colocou, cooperativamente.
[01:31:11] colocou, cooperativamente. Eh, eu não vejo muito isso na América
[01:31:14] Eh, eu não vejo muito isso na América Latina. Eu acho interessantíssimo, por
[01:31:16] Latina. Eu acho interessantíssimo, por exemplo, que os países de língua
[01:31:18] exemplo, que os países de língua hispânica t uma cooperação muito grande
[01:31:21] hispânica t uma cooperação muito grande entre eles e o Brasil não se insere
[01:31:23] entre eles e o Brasil não se insere nesse mundo, não é porque fala
[01:31:26] nesse mundo, não é porque fala português, tenho certeza, tem outras
[01:31:27] português, tenho certeza, tem outras razões que eu não sei dizer, mas eu acho
[01:31:30] razões que eu não sei dizer, mas eu acho que a gente deveria cooperar mais no
[01:31:31] que a gente deveria cooperar mais no sentido de verificar o que que nós
[01:31:33] sentido de verificar o que que nós precisamos enquanto região, ah, como
[01:31:36] precisamos enquanto região, ah, como podemos desenvolver conjuntamente,
[01:31:38] podemos desenvolver conjuntamente, porque existe essa questão do
[01:31:39] porque existe essa questão do neocolonialismo.
[01:31:40] neocolonialismo. Eh, a ponto, por exemplo, de Elon Musk
[01:31:43] Eh, a ponto, por exemplo, de Elon Musk ir no X e falar: "Nós derrubamos mesmo o
[01:31:46] ir no X e falar: "Nós derrubamos mesmo o presidente da Bolívia porque nós
[01:31:48] presidente da Bolívia porque nós queríamos o os minerais raros da
[01:31:51] queríamos o os minerais raros da Bolívia". Ele falou, não sou eu que tô
[01:31:52] Bolívia". Ele falou, não sou eu que tô falando, ele ajudou no processo de tirar
[01:31:55] falando, ele ajudou no processo de tirar o presidente da Bolívia na época. E até
[01:31:58] o presidente da Bolívia na época. E até quando isso pode acontecer? Ou ou você,
[01:32:01] quando isso pode acontecer? Ou ou você, por mais críticas que você tenha a um
[01:32:02] por mais críticas que você tenha a um governo como o do Maduro, que eu acho um
[01:32:05] governo como o do Maduro, que eu acho um governo terrível pro povo venezuelano,
[01:32:08] governo terrível pro povo venezuelano, ah,
[01:32:09] ah, você permitir que um presidente de outro
[01:32:11] você permitir que um presidente de outro país vá e invada o país e tire o
[01:32:13] país vá e invada o país e tire o presidente é algo que tem que ser
[01:32:15] presidente é algo que tem que ser discutido, entendeu? Eh, então nós
[01:32:17] discutido, entendeu? Eh, então nós estamos vivendo um mundo em que alguns
[01:32:19] estamos vivendo um mundo em que alguns países que têm grande poder, não só
[01:32:21] países que têm grande poder, não só econômico quanto militar, eles atuam
[01:32:23] econômico quanto militar, eles atuam como os bules das escolas.
[01:32:25] como os bules das escolas. >> [roncando]
[01:32:26] >> [roncando] >> É, é um fato, é um momento difícil nesse
[01:32:29] >> É, é um fato, é um momento difícil nesse sentido. Nesse [limpando a garganta]
[01:32:30] sentido. Nesse [limpando a garganta] sentido eu concordo com a visão da
[01:32:32] sentido eu concordo com a visão da Paula. Que mundo que eu vivo? Mas esse
[01:32:34] Paula. Que mundo que eu vivo? Mas esse eu tô enxergando esse mundo. Tô
[01:32:36] eu tô enxergando esse mundo. Tô enxergando esse mundo. [risadas] Diga,
[01:32:38] enxergando esse mundo. [risadas] Diga, Bruno.
[01:32:39] Bruno. >> Eh, então eu acho que uma pergunta vai
[01:32:41] >> Eh, então eu acho que uma pergunta vai meio
[01:32:42] meio perguntas. A gente a gente tem uma
[01:32:44] perguntas. A gente a gente tem uma infraestrutura de produção em todas as
[01:32:47] infraestrutura de produção em todas as >> usado. Você tem dois, inclusive.
[01:32:51] >> usado. Você tem dois, inclusive. Dá para ouvir aqui?
[01:32:54] Dá para ouvir aqui? >> Oi, oi. Eh, a minha pergunta é mais ou
[01:32:57] >> Oi, oi. Eh, a minha pergunta é mais ou menos vai ficar acho no meio da pergunta
[01:32:59] menos vai ficar acho no meio da pergunta da Paula e do Vlad. Eh, a gente tem uma
[01:33:02] da Paula e do Vlad. Eh, a gente tem uma infraestrutura de produção e tem gente,
[01:33:05] infraestrutura de produção e tem gente, uma pessoa importante aí falou que todas
[01:33:07] uma pessoa importante aí falou que todas as outras coisas são a superestrutura
[01:33:09] as outras coisas são a superestrutura que se baseiam na infraestrutura de
[01:33:10] que se baseiam na infraestrutura de produção, que tem infraestrutura
[01:33:12] produção, que tem infraestrutura capitalista. Apesar da IA ser geral GPT,
[01:33:16] capitalista. Apesar da IA ser geral GPT, ela ainda vai, ela parte da, ela é ainda
[01:33:19] ela ainda vai, ela parte da, ela é ainda uma superestrutura da infraestrutura,
[01:33:22] uma superestrutura da infraestrutura, ela ainda vai fazer parte da
[01:33:23] ela ainda vai fazer parte da infraestrutura capitalista. Eh, e a
[01:33:26] infraestrutura capitalista. Eh, e a gente tá vendo o imperialismo, não vou
[01:33:28] gente tá vendo o imperialismo, não vou falar país, mas a gente vê influenciando
[01:33:31] falar país, mas a gente vê influenciando e golpes de estado, influenciando
[01:33:33] e golpes de estado, influenciando pósverdade, influenciando genocídio. E a
[01:33:36] pósverdade, influenciando genocídio. E a IA pode se tornar uma ferramenta
[01:33:38] IA pode se tornar uma ferramenta importante para isso e pode haver mais
[01:33:41] importante para isso e pode haver mais investimento na tecnologia para isso,
[01:33:43] investimento na tecnologia para isso, que é a tecnologia de não social do que
[01:33:46] que é a tecnologia de não social do que na social. É desbalanceada essa
[01:33:49] na social. É desbalanceada essa estrutura. A minha pergunta é mais como
[01:33:51] estrutura. A minha pergunta é mais como você vê colocando esse contexto eh na
[01:33:54] você vê colocando esse contexto eh na realidade que a gente vive da IA tendo
[01:33:57] realidade que a gente vive da IA tendo mais tendo mais investimento para paraas
[01:34:00] mais tendo mais investimento para paraas infraestrutura, pros CEOs, pros ricos e
[01:34:02] infraestrutura, pros CEOs, pros ricos e não pra sociedade
[01:34:04] não pra sociedade >> com preocupação. [risadas] Eh, porque é
[01:34:07] >> com preocupação. [risadas] Eh, porque é isso que tá acontecendo. Quem mais
[01:34:09] isso que tá acontecendo. Quem mais investe em tecnologia como IA hoje?
[01:34:10] investe em tecnologia como IA hoje? Silicon V.
[01:34:12] Silicon V. E o Vale Silício, obviamente, vai
[01:34:14] E o Vale Silício, obviamente, vai investir nas soluções
[01:34:17] investir nas soluções utilitárias, aquelas que otimizam
[01:34:20] utilitárias, aquelas que otimizam funções para conseguir trazer o maior
[01:34:21] funções para conseguir trazer o maior recurso para os acionistas das empresas.
[01:34:25] recurso para os acionistas das empresas. Qual a solução que você tem para isso?
[01:34:28] Qual a solução que você tem para isso? Regulamentação é a mínima necessária. A
[01:34:30] Regulamentação é a mínima necessária. A União Europeia tá num num caminho
[01:34:32] União Europeia tá num num caminho importante nesse sentido. Os Estados
[01:34:33] importante nesse sentido. Os Estados Unidos não tão. O Brasil tende aí na
[01:34:36] Unidos não tão. O Brasil tende aí na direção da União Europeia, mas ainda tá
[01:34:38] direção da União Europeia, mas ainda tá parado, né? Eh, dá para você investir
[01:34:42] parado, né? Eh, dá para você investir localmente? Dá. A gente tem visto, o
[01:34:44] localmente? Dá. A gente tem visto, o Brasil 10 anos atrás tinha uma posição
[01:34:46] Brasil 10 anos atrás tinha uma posição inteligência artificial, hoje tem outra
[01:34:48] inteligência artificial, hoje tem outra completamente. Nós formamos muito mais
[01:34:49] completamente. Nós formamos muito mais gente hoje. Temos muito pessoal
[01:34:52] gente hoje. Temos muito pessoal qualificado, tanto é que os nossos
[01:34:53] qualificado, tanto é que os nossos profissionais são procurados pelas
[01:34:55] profissionais são procurados pelas empresas do mundo todo. Ah,
[01:34:57] empresas do mundo todo. Ah, [limpando a garganta]
[01:34:59] [limpando a garganta] temos nossas empresas começando, usando
[01:35:01] temos nossas empresas começando, usando IAI e já se destacando nesse sentido,
[01:35:04] IAI e já se destacando nesse sentido, mas não se compara com o poder do Vale
[01:35:06] mas não se compara com o poder do Vale Celício. Concordo com você. uma coisa,
[01:35:07] Celício. Concordo com você. uma coisa, uma solução que ve transparência e aqui,
[01:35:10] uma solução que ve transparência e aqui, >> mas a transparência precisa de
[01:35:12] >> mas a transparência precisa de regulamentação,
[01:35:13] regulamentação, >> não? Transparência da explicar para todo
[01:35:16] >> não? Transparência da explicar para todo mundo
[01:35:17] mundo >> isso, a educação, com certeza quando a
[01:35:19] >> isso, a educação, com certeza quando a população sabe os impactos e entende,
[01:35:24] população sabe os impactos e entende, >> pode haver essa pressão para
[01:35:26] >> pode haver essa pressão para conseguirmos regulamentação,
[01:35:28] conseguirmos regulamentação, mas eh é um trabalho de formiguinha, né?
[01:35:32] mas eh é um trabalho de formiguinha, né? Eh, por isso que eu falei, eu sinto a
[01:35:33] Eh, por isso que eu falei, eu sinto a importância de estar trabalhando com
[01:35:35] importância de estar trabalhando com isso cada dia mais.
[01:35:37] isso cada dia mais. Temos uma pergunta online, pelo menos
[01:35:39] Temos uma pergunta online, pelo menos para
[01:35:42] desigualdade,
[01:35:43] desigualdade, >> tá? Marcos.
[01:35:47] Eh,
[01:35:49] Eh, acho que é uma coisa que eu vejo com
[01:35:51] acho que é uma coisa que eu vejo com essa apresentação e acho que acabou
[01:35:52] essa apresentação e acho que acabou conectando com o fim dela.
[01:35:55] conectando com o fim dela. Eh,
[01:35:57] Eh, macho um erro político,
[01:36:00] macho um erro político, eh,
[01:36:03] levantar que essa possibilidade de uma I
[01:36:06] levantar que essa possibilidade de uma I ou algo similar vai existir.
[01:36:11] ou algo similar vai existir. a partir que você proclama essa
[01:36:13] a partir que você proclama essa possibilidade, você dá mais poder para
[01:36:16] possibilidade, você dá mais poder para quem para quem para quem tá mais próximo
[01:36:19] quem para quem para quem tá mais próximo dela.
[01:36:20] dela. É, e aí acho aí um pouco que aí é uma
[01:36:23] É, e aí acho aí um pouco que aí é uma coisa que acho que eu que eu discordo
[01:36:24] coisa que acho que eu que eu discordo muito do do começo da posição que você
[01:36:26] muito do do começo da posição que você colocou no na palestra, que é
[01:36:33] você acha de fato que é algo geral,
[01:36:37] você acha de fato que é algo geral, então que é algo que você vai conseguir
[01:36:40] então que é algo que você vai conseguir colocar qualquer tipo de tarefa e isso
[01:36:44] colocar qualquer tipo de tarefa e isso vai conseguir te trazer algo de volta ou
[01:36:46] vai conseguir te trazer algo de volta ou algo que vai demandar engenharia em cada
[01:36:48] algo que vai demandar engenharia em cada em cada casa? Uhum.
[01:36:50] em cada casa? Uhum. >> Então, [limpando a garganta] quando a
[01:36:50] >> Então, [limpando a garganta] quando a gente fala de internet, porque que
[01:36:52] gente fala de internet, porque que porque acho que aí o grande problema de
[01:36:53] porque acho que aí o grande problema de quando a gente fala em inteligência,
[01:36:55] quando a gente fala em inteligência, quando a gente fala em inteligência,
[01:36:57] quando a gente fala em inteligência, para mim é um erro político também, a
[01:36:58] para mim é um erro político também, a gente continuar usando o termo
[01:36:59] gente continuar usando o termo inteligência.
[01:37:00] inteligência. >> Uhum. [limpando a garganta]
[01:37:01] >> Uhum. [limpando a garganta] >> A gente deveria pensar num outro, talvez
[01:37:04] >> A gente deveria pensar num outro, talvez ter um movimento político para dar um
[01:37:05] ter um movimento político para dar um outro nome para essa tecnologia que a
[01:37:06] outro nome para essa tecnologia que a gente tá criando. Imagina que a gente
[01:37:08] gente tá criando. Imagina que a gente fala em inteligência, a gente atribui
[01:37:11] fala em inteligência, a gente atribui uma capacidade maior do que ela
[01:37:12] uma capacidade maior do que ela realmente tem.
[01:37:13] realmente tem. >> Sim. Bom, o o Mustafa Suleiman, ele é
[01:37:17] >> Sim. Bom, o o Mustafa Suleiman, ele é autor do de um livro recente, né, que é
[01:37:21] autor do de um livro recente, né, que é a próxima onda, ele fala eh sobre isso
[01:37:24] a próxima onda, ele fala eh sobre isso também, dessa questão política. Falar
[01:37:27] também, dessa questão política. Falar que AID é possível pode ser visto
[01:37:30] que AID é possível pode ser visto politicamente, pode. E a é ela é
[01:37:33] politicamente, pode. E a é ela é política, né? Mas o fato dela ser vista
[01:37:36] política, né? Mas o fato dela ser vista como uma questão política, talvez ajude
[01:37:39] como uma questão política, talvez ajude a abrir os olhos das pessoas que nós
[01:37:41] a abrir os olhos das pessoas que nós precisamos discutir isso e regulamentar.
[01:37:44] precisamos discutir isso e regulamentar. Ah, eu não falei que a IGI eh tá aqui.
[01:37:49] Ah, eu não falei que a IGI eh tá aqui. Eu falei que com os avanços que nós
[01:37:51] Eu falei que com os avanços que nós estamos tendo, independente de
[01:37:54] estamos tendo, independente de melhorarmos ainda mais, a gente deveria
[01:37:56] melhorarmos ainda mais, a gente deveria deixar de chamar de ADI e chamar de
[01:37:58] deixar de chamar de ADI e chamar de inteligência artificial capaz.
[01:38:01] inteligência artificial capaz. Por quê? Porque talvez precise de
[01:38:02] Por quê? Porque talvez precise de engenharia, precise de adaptação e
[01:38:04] engenharia, precise de adaptação e talvez não resolva tudo, mas ela já vai
[01:38:06] talvez não resolva tudo, mas ela já vai ter impacto claro na vida das pessoas,
[01:38:08] ter impacto claro na vida das pessoas, positivos ou negativos. Então eu sou
[01:38:10] positivos ou negativos. Então eu sou daqueles que acham que nós devemos lidar
[01:38:12] daqueles que acham que nós devemos lidar com isso como inteligência artificial
[01:38:13] com isso como inteligência artificial capaz, não como ai, no sentido que o
[01:38:17] capaz, não como ai, no sentido que o Vale do Silício tenta trazer, que é para
[01:38:19] Vale do Silício tenta trazer, que é para postergar qualquer tipo de
[01:38:20] postergar qualquer tipo de regulamentação. Então vale a corrida sem
[01:38:22] regulamentação. Então vale a corrida sem leis até lá. Ah, e
[01:38:29] deveríamos não falar sobre isso por
[01:38:32] deveríamos não falar sobre isso por causa do risco político. Acho que não.
[01:38:36] causa do risco político. Acho que não. Acho que a gente precisa falar. Eu acho
[01:38:38] Acho que a gente precisa falar. Eu acho que nós já estamos num ponto que a IA se
[01:38:42] que nós já estamos num ponto que a IA se torna transparente um monte de coisa que
[01:38:43] torna transparente um monte de coisa que as pessoas nem pensam mais. Ela já tá
[01:38:45] as pessoas nem pensam mais. Ela já tá transparente na concessão de crédito,
[01:38:48] transparente na concessão de crédito, ela tá transparente na renovação do seu
[01:38:50] ela tá transparente na renovação do seu seguro, tá transparente na recomendação
[01:38:53] seguro, tá transparente na recomendação dos filmes que você assiste, na busca
[01:38:55] dos filmes que você assiste, na busca que você faz na internet, na hora que
[01:38:57] que você faz na internet, na hora que você loga no seu celular. Ela tá
[01:38:59] você loga no seu celular. Ela tá transparente um monte de coisa. Até na
[01:39:00] transparente um monte de coisa. Até na busca que de um endereço que você vai
[01:39:02] busca que de um endereço que você vai pelo Waze hoje já não é mais da extra do
[01:39:04] pelo Waze hoje já não é mais da extra do ponto A e pro ponto B. Ele já tá
[01:39:06] ponto A e pro ponto B. Ele já tá balanceando o tráfego, ele tá
[01:39:08] balanceando o tráfego, ele tá balanceando se você tá passando em
[01:39:09] balanceando se você tá passando em frente ao patrocinador dele e a a loja
[01:39:12] frente ao patrocinador dele e a a loja que tá pagando para ele para que você
[01:39:14] que tá pagando para ele para que você passe em frente, tudo isso tá sendo
[01:39:15] passe em frente, tudo isso tá sendo levado em consideração. Então já tá aqui
[01:39:18] levado em consideração. Então já tá aqui e é o momento que a gente precisa
[01:39:19] e é o momento que a gente precisa demandar eh eh regulamentação. A gente
[01:39:23] demandar eh eh regulamentação. A gente precisa, eu acho,
[01:39:25] precisa, eu acho, >> acho que aí a a eu acho que eu vou não
[01:39:28] >> acho que aí a a eu acho que eu vou não achei que que a gente não deva falar. É,
[01:39:30] achei que que a gente não deva falar. É, não entendi.
[01:39:31] não entendi. >> Mas mas eu acho que a o ponto é talvez a
[01:39:33] >> Mas mas eu acho que a o ponto é talvez a gente não deva falar como falar na sua
[01:39:36] gente não deva falar como falar na sua onipresença.
[01:39:37] onipresença. >> Ah, sim.
[01:39:38] >> Ah, sim. >> E não nessa capacidade magnânima que ela
[01:39:41] >> E não nessa capacidade magnânima que ela pode ter.
[01:39:41] pode ter. >> Sim. Sim. Por isso que eu não acho que é
[01:39:42] >> Sim. Sim. Por isso que eu não acho que é uma capacidade magnânima, eu acho que é
[01:39:44] uma capacidade magnânima, eu acho que é capaz.
[01:39:45] capaz. >> Isso. Isso. Então, acho que é bom a
[01:39:46] >> Isso. Isso. Então, acho que é bom a gente
[01:39:47] gente >> já então já de partida negar a EDI. Acho
[01:39:52] >> já então já de partida negar a EDI. Acho que negar a ED e por mais que a gente
[01:39:54] que negar a ED e por mais que a gente fala que a IA vai estar onipresente na
[01:39:57] fala que a IA vai estar onipresente na nossa vida, acho que é um ponto político
[01:39:59] nossa vida, acho que é um ponto político forte que a gente pode ter, porque a ID
[01:40:02] forte que a gente pode ter, porque a ID é um termo que tá sendo usado por esse
[01:40:04] é um termo que tá sendo usado por esse grupo tecnocrata. Exatamente.
[01:40:06] grupo tecnocrata. Exatamente. Exatamente.
[01:40:06] Exatamente. >> Então, talvez buscar um outro nome,
[01:40:09] >> Então, talvez buscar um outro nome, buscar uma outra forma e se contrapor a
[01:40:10] buscar uma outra forma e se contrapor a esse ponto acho importante
[01:40:12] esse ponto acho importante politicamente. E acho que aí uma outra
[01:40:14] politicamente. E acho que aí uma outra pergunta é exatamente essa, assim,
[01:40:16] pergunta é exatamente essa, assim, porque eh
[01:40:22] acho que fica um um uma coisa que toda
[01:40:24] acho que fica um um uma coisa que toda vez que a gente faz uma um debate
[01:40:27] vez que a gente faz uma um debate sociotécnico, que é o que você fez na
[01:40:29] sociotécnico, que é o que você fez na segunda parte da palestra, a gente tem
[01:40:31] segunda parte da palestra, a gente tem uma parece que existe uma
[01:40:36] uma parece que existe uma uma dicotomia entre o técnico e o
[01:40:38] uma dicotomia entre o técnico e o social,
[01:40:40] social, uma dicotomia entre a otimização
[01:40:43] uma dicotomia entre a otimização e o e a e a aplicação com um certo fim,
[01:40:50] e o e a e a aplicação com um certo fim, obviamente. Bom, e aí eu acho que o que
[01:40:53] obviamente. Bom, e aí eu acho que o que eu queria, eu queria que você discutisse
[01:40:55] eu queria, eu queria que você discutisse um pouco isso nesse ponto de vista de
[01:40:59] um pouco isso nesse ponto de vista de como agente, como técnico, puramente
[01:41:02] como agente, como técnico, puramente técnico,
[01:41:02] técnico, >> pode trazer o outro lado. Sim, beleza.
[01:41:05] >> pode trazer o outro lado. Sim, beleza. >> Pode possamos ser um, se a gente
[01:41:07] >> Pode possamos ser um, se a gente consegue ser um bom tecnocrata. Tá,
[01:41:10] consegue ser um bom tecnocrata. Tá, entendi.
[01:41:10] entendi. >> Ao invés de ser e não necessariamente
[01:41:12] >> Ao invés de ser e não necessariamente ter que ser um humanista.
[01:41:14] ter que ser um humanista. >> Muito bom. Eh, eu acho que sim. Eh, o
[01:41:16] >> Muito bom. Eh, eu acho que sim. Eh, o que que nós precisamos fazer? Ao invés
[01:41:18] que que nós precisamos fazer? Ao invés de pensar, por exemplo, no baixo nível
[01:41:22] de pensar, por exemplo, no baixo nível em otimizar um algoritmo baseado apenas
[01:41:24] em otimizar um algoritmo baseado apenas nas funções utilitárias,
[01:41:26] nas funções utilitárias, a primeira coisa antes de pensar nesse
[01:41:29] a primeira coisa antes de pensar nesse algoritmo é trazer quem entende dos
[01:41:31] algoritmo é trazer quem entende dos problemas
[01:41:33] problemas e quem vai ser afetado pelos problemas.
[01:41:36] e quem vai ser afetado pelos problemas. Que que eu quero dizer? Se você tá
[01:41:38] Que que eu quero dizer? Se você tá desenvolvendo algo que vai ser, por
[01:41:40] desenvolvendo algo que vai ser, por exemplo,
[01:41:42] exemplo, eh,
[01:41:44] eh, [roncando] uma técnica importante para
[01:41:45] [roncando] uma técnica importante para concessão de créditos,
[01:41:48] concessão de créditos, quem que entende disso?
[01:41:50] quem que entende disso? Traga para ajudar a pensar o problema.
[01:41:52] Traga para ajudar a pensar o problema. Quem vai ser impactado por isso? Quem
[01:41:54] Quem vai ser impactado por isso? Quem pede crédito?
[01:41:56] pede crédito? você você vai tá deixando grupos de
[01:41:57] você você vai tá deixando grupos de lado, você vai ser você será injusto.
[01:42:02] lado, você vai ser você será injusto. Então, a primeira coisa é ter os atores
[01:42:06] Então, a primeira coisa é ter os atores que influenciam e que são influenciados
[01:42:08] que influenciam e que são influenciados participando da discussão. E isso, por
[01:42:10] participando da discussão. E isso, por exemplo, a Iá não vai fazer.
[01:42:13] exemplo, a Iá não vai fazer. Aqui é outro diferencial humano no
[01:42:15] Aqui é outro diferencial humano no desenvolvimento de soluções, como você
[01:42:16] desenvolvimento de soluções, como você tinha colocado lá. Você não vai sentar e
[01:42:18] tinha colocado lá. Você não vai sentar e sair desenvolvendo o código, cara. Os
[01:42:20] sair desenvolvendo o código, cara. Os problemas são cada vez mais complexos na
[01:42:22] problemas são cada vez mais complexos na nossa sociedade. Isso vai implicar que
[01:42:23] nossa sociedade. Isso vai implicar que quem trabalha com desenvolvimento sério
[01:42:25] quem trabalha com desenvolvimento sério de código precisa entender dos
[01:42:26] de código precisa entender dos problemas, precisa discutir com os
[01:42:28] problemas, precisa discutir com os atores. Isso eu acho que que vai
[01:42:30] atores. Isso eu acho que que vai acontecer, pelo menos em alguns setores,
[01:42:32] acontecer, pelo menos em alguns setores, não em todos. Obviamente tem gente que
[01:42:33] não em todos. Obviamente tem gente que desenvolve código achando que eh só o
[01:42:36] desenvolve código achando que eh só o computeiro resolve, entende tudo.
[01:42:38] computeiro resolve, entende tudo. Inclusive tem algumas profissões com
[01:42:40] Inclusive tem algumas profissões com justiça pensam que nós achamos que
[01:42:41] justiça pensam que nós achamos que resolvemos qualquer problema, né, nós da
[01:42:43] resolvemos qualquer problema, né, nós da computação. Eh, por quê? Porque durante
[01:42:45] computação. Eh, por quê? Porque durante muito tempo os os o pessoal da
[01:42:48] muito tempo os os o pessoal da computação chegava para trabalhar com o
[01:42:49] computação chegava para trabalhar com o médico, por exemplo, não, especialista
[01:42:50] médico, por exemplo, não, especialista não precisa não, só me dá o dataset. Eh,
[01:42:52] não precisa não, só me dá o dataset. Eh, era, era. Então, eu acho que a primeira
[01:42:55] era, era. Então, eu acho que a primeira coisa é trazer os atores. Segundo,
[01:42:57] coisa é trazer os atores. Segundo, quando você pensar no desenvolvimento em
[01:42:59] quando você pensar no desenvolvimento em si, como é que você incorpora o
[01:43:01] si, como é que você incorpora o conhecimento dos atores? Você tem
[01:43:03] conhecimento dos atores? Você tem pesquisa nessa área? Você tem pesquisa
[01:43:05] pesquisa nessa área? Você tem pesquisa em justiça algorítmica? Como é que você
[01:43:07] em justiça algorítmica? Como é que você traz o conhecimento da injustiça
[01:43:10] traz o conhecimento da injustiça para que você diminua a injustiça na
[01:43:12] para que você diminua a injustiça na função de otimização? Porque no final do
[01:43:15] função de otimização? Porque no final do dia você vai ter que traduzir o problema
[01:43:18] dia você vai ter que traduzir o problema social em algo que dá para você
[01:43:20] social em algo que dá para você implementar na computação. E algo que dá
[01:43:23] implementar na computação. E algo que dá para implementar na computação implica
[01:43:24] para implementar na computação implica funções, né? Então a gente vai ter que
[01:43:27] funções, né? Então a gente vai ter que traduzir isso. Isso é um conhecimento
[01:43:29] traduzir isso. Isso é um conhecimento que é diferencial, não vai ser alguém
[01:43:31] que é diferencial, não vai ser alguém que vai fazer para você, tá? Então eu
[01:43:34] que vai fazer para você, tá? Então eu vejo a profissão de computação
[01:43:36] vejo a profissão de computação importante tanto quanto era no passado,
[01:43:39] importante tanto quanto era no passado, talvez até mais importante no futuro.
[01:43:41] talvez até mais importante no futuro. Então não fiquem assustados. Temos
[01:43:43] Então não fiquem assustados. Temos muitas possibilidades pelo futuro. O que
[01:43:45] muitas possibilidades pelo futuro. O que eu tô dizendo é que algumas coisas que
[01:43:47] eu tô dizendo é que algumas coisas que nós fazíamos não são tão mais
[01:43:50] nós fazíamos não são tão mais importantes, mas abrem-se outras
[01:43:51] importantes, mas abrem-se outras ponteiras.
[01:43:53] ponteiras. >> Uma parte
[01:43:55] >> Uma parte questão, estuda a teoria.
[01:43:58] questão, estuda a teoria. >> Boa. É isso.
[01:43:59] >> Boa. É isso. >> Fundamento.
[01:43:59] >> Fundamento. >> Fundamento.
[01:44:00] >> Fundamento. >> Estuda a teoria. Esquece a aplicação.
[01:44:03] >> Estuda a teoria. Esquece a aplicação. Estuda a teoria. É, é, é, ali onde você
[01:44:05] Estuda a teoria. É, é, é, ali onde você vai conseguir algo. E pode ser qualquer
[01:44:06] vai conseguir algo. E pode ser qualquer teoria, entendeu? Filosofia.
[01:44:10] teoria, entendeu? Filosofia. Hoje eu tô numa pira de teologia.
[01:44:14] Hoje eu tô numa pira de teologia. >> [risadas]
[01:44:14] >> [risadas] >> o quanto o quanto ela guia e move a
[01:44:16] >> o quanto o quanto ela guia e move a nossa nossa sociedade,
[01:44:19] nossa nossa sociedade, >> porque provavelmente você vai vai mudar
[01:44:21] >> porque provavelmente você vai vai mudar a tua capacidade de jogar algo que uma
[01:44:23] a tua capacidade de jogar algo que uma IA faz.
[01:44:25] IA faz. >> Duas perguntas finais aqui.
[01:44:29] >> Duas perguntas finais aqui. Ah, você já tá com o microfone, então
[01:44:30] Ah, você já tá com o microfone, então vai ser um de você que parou, por favor,
[01:44:32] vai ser um de você que parou, por favor, diga,
[01:44:34] diga, >> tá? Queria primeiro agradecer a
[01:44:36] >> tá? Queria primeiro agradecer a apresentação, foi muito importante.
[01:44:39] apresentação, foi muito importante. >> Eh, eu acho que a minha questão vai mais
[01:44:42] >> Eh, eu acho que a minha questão vai mais no caminho da questão da criatividade,
[01:44:44] no caminho da questão da criatividade, da inteligência, como a gente essas
[01:44:46] da inteligência, como a gente essas coisas. Eh, então ultimamente aquele car
[01:44:49] coisas. Eh, então ultimamente aquele car estudo que teve arte,
[01:44:54] estudo que teve arte, mas a questão seria, será que se não
[01:44:56] mas a questão seria, será que se não tivesse existido nunca o estúdio será
[01:44:58] tivesse existido nunca o estúdio será que a IA conseguiria gerar images em
[01:45:01] que a IA conseguiria gerar images em artes parecidas ela? Se nunca tivesse
[01:45:03] artes parecidas ela? Se nunca tivesse sido diab
[01:45:05] sido diab conseguir escrever as
[01:45:06] conseguir escrever as [limpando a garganta] letras de tudo
[01:45:08] [limpando a garganta] letras de tudo acord.
[01:45:09] acord. >> Eu eu gosto de eu gosto de fazer sessões
[01:45:11] >> Eu eu gosto de eu gosto de fazer sessões como essa aqui porque me fazem pensar
[01:45:13] como essa aqui porque me fazem pensar fora da caixa e querer aprender ainda
[01:45:16] fora da caixa e querer aprender ainda mais, né? Cara, a diferenciação entre
[01:45:20] mais, né? Cara, a diferenciação entre criatividade e inteligência é muito
[01:45:24] criatividade e inteligência é muito difícil,
[01:45:26] difícil, né? É que existem diferentes nuances da
[01:45:28] né? É que existem diferentes nuances da inteligência. Existe a inteligência
[01:45:30] inteligência. Existe a inteligência emocional, existe a inteligência para
[01:45:31] emocional, existe a inteligência para resolver problema e uma das umas da
[01:45:34] resolver problema e uma das umas da inteligência é a capacidade de criar
[01:45:36] inteligência é a capacidade de criar coisas, né? Se você me fizesse essa
[01:45:39] coisas, né? Se você me fizesse essa pergunta 10 anos atrás, eu falaria:
[01:45:40] pergunta 10 anos atrás, eu falaria: "Não, a IA realmente não cria coisa
[01:45:42] "Não, a IA realmente não cria coisa nova. Ela é apenas um ligador de pontos
[01:45:45] nova. Ela é apenas um ligador de pontos de coisas que existem. Hoje não é mais
[01:45:47] de coisas que existem. Hoje não é mais verdade.
[01:45:49] verdade. Não é mais verdade. Basta ver o
[01:45:51] Não é mais verdade. Basta ver o movimento 37
[01:45:54] movimento 37 da partida de gol de 2016 do Alfa Gol
[01:45:58] da partida de gol de 2016 do Alfa Gol contra o campeão mundial. A jogada 37
[01:46:01] contra o campeão mundial. A jogada 37 nunca foi feita.
[01:46:04] nunca foi feita. Nunca tinha sido feita. Nenhum jogo
[01:46:05] Nunca tinha sido feita. Nenhum jogo registrado ela tinha sido feita. E ela
[01:46:08] registrado ela tinha sido feita. E ela foi inventada pelo Alfa Go e ela foi
[01:46:10] foi inventada pelo Alfa Go e ela foi crucial para uma vitória e ela foi feita
[01:46:13] crucial para uma vitória e ela foi feita dezenas de jogadas antes.
[01:46:16] dezenas de jogadas antes. Essa jogada 37,
[01:46:18] Essa jogada 37, assim como ela, tem outros exemplos de
[01:46:20] assim como ela, tem outros exemplos de criatividade, algorítmica que começam a
[01:46:22] criatividade, algorítmica que começam a aparecer e são bem interessantes.
[01:46:25] aparecer e são bem interessantes. Ah, isso quer dizer que ela tá que a
[01:46:28] Ah, isso quer dizer que ela tá que a gente chegou numa inteligência superior?
[01:46:30] gente chegou numa inteligência superior? Não é que talvez, isso é talvez, não,
[01:46:34] Não é que talvez, isso é talvez, não, não tem prova, talvez
[01:46:37] não tem prova, talvez a partir de uma grande quantidade de
[01:46:38] a partir de uma grande quantidade de dados você encontra tantas
[01:46:40] dados você encontra tantas possibilidades de ligação entre pontos
[01:46:43] possibilidades de ligação entre pontos que não necessariamente pontos que já
[01:46:44] que não necessariamente pontos que já tenham sido ligados no passado não sejam
[01:46:46] tenham sido ligados no passado não sejam possíveis de serem ligados pro futuro.
[01:46:49] possíveis de serem ligados pro futuro. Então, o fato de nunca ter tido uma
[01:46:51] Então, o fato de nunca ter tido uma jogada 37, mas pode-se ter a partir de
[01:46:54] jogada 37, mas pode-se ter a partir de tantos dados de treinamento, pode-se ter
[01:46:56] tantos dados de treinamento, pode-se ter a a possibilidade de combinar coisas que
[01:46:58] a a possibilidade de combinar coisas que bastava ter explorado um pouco mais
[01:47:00] bastava ter explorado um pouco mais buscas,
[01:47:01] buscas, tá? Então eu acho que é possível criar
[01:47:03] tá? Então eu acho que é possível criar coisa nova com ia, eh, seja
[01:47:06] coisa nova com ia, eh, seja desenvolvimento de código, no caso do
[01:47:08] desenvolvimento de código, no caso do estúdio Gible, por exemplo, daria pra
[01:47:10] estúdio Gible, por exemplo, daria pra gente ter exatamente o estúdio GB?
[01:47:12] gente ter exatamente o estúdio GB? Talvez não,
[01:47:14] Talvez não, porque a gente conseguiu justamente
[01:47:16] porque a gente conseguiu justamente replicar o estúdio livro porque foi
[01:47:18] replicar o estúdio livro porque foi pedido para isso. Mas você poderia ter
[01:47:20] pedido para isso. Mas você poderia ter pedido algo do tipo em artline com o
[01:47:24] pedido algo do tipo em artline com o fundo, a tinta um pouco esmaecida, pode
[01:47:27] fundo, a tinta um pouco esmaecida, pode ser. Mas aí seria um casamento da
[01:47:29] ser. Mas aí seria um casamento da inteligência e criatividade humana com a
[01:47:31] inteligência e criatividade humana com a da máquina, tá? Eu acho que o maior
[01:47:33] da máquina, tá? Eu acho que o maior potencial é a inteligência humana com a
[01:47:35] potencial é a inteligência humana com a máquina.
[01:47:38] máquina. É aqui última.
[01:47:42] [roncando]
[01:47:43] [roncando] Obrigada.
[01:47:45] Obrigada. Boa tarde, professor. Eh, são duas
[01:47:47] Boa tarde, professor. Eh, são duas perguntas, na verdade. A primeira seria
[01:47:49] perguntas, na verdade. A primeira seria em relação a um pouco que a qual
[01:47:52] em relação a um pouco que a qual desculpa,
[01:47:53] desculpa, >> Paula. falou que é assim, quando você tá
[01:47:56] >> Paula. falou que é assim, quando você tá comentando sobre a os dois tipos de gás
[01:48:00] comentando sobre a os dois tipos de gás pro mundo, a tecnocrata e a humanista,
[01:48:02] pro mundo, a tecnocrata e a humanista, tem um problema assim que eh eu acho que
[01:48:06] tem um problema assim que eh eu acho que permeia as duas as duas visões, porque o
[01:48:09] permeia as duas as duas visões, porque o que eu vejo atualmente é que a a IA ela
[01:48:13] que eu vejo atualmente é que a a IA ela tem junto com tudo que envolve ela eh em
[01:48:18] tem junto com tudo que envolve ela eh em relação à individualidade de cada um,
[01:48:20] relação à individualidade de cada um, porque quando você comentou que a
[01:48:22] porque quando você comentou que a unidade idade avança na mente coletiva,
[01:48:25] unidade idade avança na mente coletiva, ela é realmente significante para
[01:48:27] ela é realmente significante para realmente usar a humanidade, mas foram
[01:48:29] realmente usar a humanidade, mas foram mentes individuais que conseguiram
[01:48:31] mentes individuais que conseguiram grandes brews, assim em relação à
[01:48:33] grandes brews, assim em relação à pesquisa e e a e as coisas que a gente
[01:48:36] pesquisa e e a e as coisas que a gente conquistou como espécie, né? Então, com
[01:48:39] conquistou como espécie, né? Então, com os e todos os vieses que ela carrega,
[01:48:42] os e todos os vieses que ela carrega, toda eh essa esses dados que reforçam um
[01:48:46] toda eh essa esses dados que reforçam um comportamento específico, eh, ela vai
[01:48:48] comportamento específico, eh, ela vai ter essa tendência de homogeneizar o
[01:48:50] ter essa tendência de homogeneizar o pensamento crítico, homogeneizar as
[01:48:52] pensamento crítico, homogeneizar as pessoas e vai ter ao longo a perda da
[01:48:53] pessoas e vai ter ao longo a perda da individualidade em diversas áreas, da
[01:48:56] individualidade em diversas áreas, da pesquisa, eh, nas artes, em diversas
[01:48:59] pesquisa, eh, nas artes, em diversas áreas assim. E a questão é como que a
[01:49:01] áreas assim. E a questão é como que a gente eh vai trabalhar isso, sabendo que
[01:49:07] gente eh vai trabalhar isso, sabendo que usando a IA como ferramenta, sendo que
[01:49:08] usando a IA como ferramenta, sendo que pode ser que ela só esteja harmonizando,
[01:49:10] pode ser que ela só esteja harmonizando, homogenizando o pensamento crítico e
[01:49:14] homogenizando o pensamento crítico e como consequência pode estagnar a
[01:49:15] como consequência pode estagnar a produção intelectual humana. E a outra
[01:49:18] produção intelectual humana. E a outra pergunta seria em relação à moral,
[01:49:20] pergunta seria em relação à moral, porque como você mesmo falou, a
[01:49:22] porque como você mesmo falou, a moralidade humana e a ética humana há
[01:49:23] moralidade humana e a ética humana há 100 anos, 200 anos atrás é diferente. E
[01:49:25] 100 anos, 200 anos atrás é diferente. E a moralidade assim como construções
[01:49:27] a moralidade assim como construções humanas, elas são aprendidas ao longo da
[01:49:30] humanas, elas são aprendidas ao longo da da nossa da geração como pessoa. E se
[01:49:32] da nossa da geração como pessoa. E se ela é um fator aprendido e não inato um
[01:49:35] ela é um fator aprendido e não inato um ser humano, porque a Iá também não
[01:49:37] ser humano, porque a Iá também não poderia aprender e ser melhor que a
[01:49:38] poderia aprender e ser melhor que a gente? E aí no que você comentou sobre
[01:49:42] gente? E aí no que você comentou sobre eh o que resta pra gente no futuro, esse
[01:49:45] eh o que resta pra gente no futuro, esse pensamento moral, esse pensamento ético,
[01:49:47] pensamento moral, esse pensamento ético, porque talvez ela não faça melhor do que
[01:49:49] porque talvez ela não faça melhor do que a gente também. Então essas seriam as
[01:49:51] a gente também. Então essas seriam as duas perguntas,
[01:49:52] duas perguntas, >> rapaz.
[01:49:54] >> rapaz. >> Eh, a segunda, por que que a Iana não
[01:49:56] >> Eh, a segunda, por que que a Iana não pode aprender? É porque no momento no
[01:49:59] pode aprender? É porque no momento no momento nós ainda não sabemos como
[01:50:01] momento nós ainda não sabemos como computar moralidade,
[01:50:04] computar moralidade, assim como nós não sabemos como computar
[01:50:06] assim como nós não sabemos como computar consciência.
[01:50:07] consciência. Pode ser que em algum momento a gente
[01:50:08] Pode ser que em algum momento a gente tenha algum breakthrough e seja capaz de
[01:50:11] tenha algum breakthrough e seja capaz de transformar esses conceitos abstratos em
[01:50:15] transformar esses conceitos abstratos em código. Pode ser. Então, para quem tiver
[01:50:18] código. Pode ser. Então, para quem tiver um pouco mais de curiosidade para ir
[01:50:19] um pouco mais de curiosidade para ir nessa linha da dessa pergunta, existe um
[01:50:20] nessa linha da dessa pergunta, existe um livro que chama Você não computável, Não
[01:50:23] livro que chama Você não computável, Não Comput, que discute vários aspectos da
[01:50:26] Comput, que discute vários aspectos da da do ser humano que não são
[01:50:28] da do ser humano que não são computáveis. Moral é uma delas. Eh,
[01:50:31] computáveis. Moral é uma delas. Eh, ética você já consegue computar um pouco
[01:50:33] ética você já consegue computar um pouco a partir de vários exemplos. Eh,
[01:50:35] a partir de vários exemplos. Eh, consciência, sub consciência, você não
[01:50:37] consciência, sub consciência, você não consegue. Então, se nós conseguimos
[01:50:39] consegue. Então, se nós conseguimos computar um dia, sim, pode ser que nós
[01:50:41] computar um dia, sim, pode ser que nós conseguimos ter, consigamos ter um
[01:50:43] conseguimos ter, consigamos ter um algoritmo, conjunto de algoritmos que
[01:50:45] algoritmo, conjunto de algoritmos que tenha moralidade. Ah, mas para isso a
[01:50:48] tenha moralidade. Ah, mas para isso a gente também vai precisar ter o
[01:50:49] gente também vai precisar ter o desenvolvimento da noção de selfie de si
[01:50:53] desenvolvimento da noção de selfie de si mesmo. Então, hoje o chat VT não tem
[01:50:56] mesmo. Então, hoje o chat VT não tem noção de si mesmo, ele não se localiza
[01:50:59] noção de si mesmo, ele não se localiza no mundo, ele não tem autoconsciência.
[01:51:01] no mundo, ele não tem autoconsciência. você precisaria ter esse desenvolvimento
[01:51:03] você precisaria ter esse desenvolvimento também, porque isso tá associado com
[01:51:05] também, porque isso tá associado com moral. Ah, em relação a à outra pergunta
[01:51:13] que permeia, né? Você falou questão da
[01:51:15] que permeia, né? Você falou questão da de permear tanto o o o humanismo quanto
[01:51:18] de permear tanto o o o humanismo quanto o tecnocrata, né?
[01:51:21] o tecnocrata, né? Pode repetir o com você.
[01:51:24] Pode repetir o com você. >> A questão é tipo o uso da IA, ela
[01:51:27] >> A questão é tipo o uso da IA, ela carrega esse viés do da internet e da
[01:51:30] carrega esse viés do da internet e da produção humana até hoje, que é um viés
[01:51:32] produção humana até hoje, que é um viés >> do coletivo, tá? Você vai homogeneizar.
[01:51:35] >> do coletivo, tá? Você vai homogeneizar. Eh, sim, do jeito que nós temos IAS
[01:51:37] Eh, sim, do jeito que nós temos IAS hoje, eh, com boa parte das pessoas
[01:51:40] hoje, eh, com boa parte das pessoas usando simplesmente para deixar de fazer
[01:51:41] usando simplesmente para deixar de fazer as tarefas, dividindo para ir a fazer,
[01:51:43] as tarefas, dividindo para ir a fazer, nós temos a normalização do mediano.
[01:51:47] nós temos a normalização do mediano. Então, quem é muito ruim passa a ser
[01:51:49] Então, quem é muito ruim passa a ser médio e quem é bom e e tá deixando de
[01:51:53] médio e quem é bom e e tá deixando de usar criticamente desce, passa pro
[01:51:55] usar criticamente desce, passa pro mediano. Essa normalização tá
[01:51:56] mediano. Essa normalização tá acontecendo hoje. Como que a gente deixa
[01:51:58] acontecendo hoje. Como que a gente deixa de fazer isso? A única forma que eu vejo
[01:52:00] de fazer isso? A única forma que eu vejo é você desenvolvendo as suas
[01:52:01] é você desenvolvendo as suas habilidades, né? Eh, como a gente falou
[01:52:04] habilidades, né? Eh, como a gente falou aqui, senso crítico, leitura,
[01:52:06] aqui, senso crítico, leitura, se jogar no mundo, interagir com outras
[01:52:08] se jogar no mundo, interagir com outras pessoas, abrir mão de ficar dentro da
[01:52:11] pessoas, abrir mão de ficar dentro da sua zona de conforto e tentar aprender
[01:52:14] sua zona de conforto e tentar aprender se colocar na posição de outros. Eh, só
[01:52:17] se colocar na posição de outros. Eh, só dessa forma que você consegue sair do
[01:52:18] dessa forma que você consegue sair do seu mundinho e talvez, talvez, eh, não
[01:52:23] seu mundinho e talvez, talvez, eh, não ficar nessa média geral da I. Eh, então,
[01:52:26] ficar nessa média geral da I. Eh, então, daqui paraa frente, eu vejo isso com
[01:52:28] daqui paraa frente, eu vejo isso com textos, tá? Textos de alunos.
[01:52:30] textos, tá? Textos de alunos. Eu não recebo mais texto horrível.
[01:52:34] Não recebam. Isso é um bom um bom ponto.
[01:52:37] Não recebam. Isso é um bom um bom ponto. A pessoa tá sabendo usar, mas também faz
[01:52:40] A pessoa tá sabendo usar, mas também faz um bom tempo que eu não recebo um texto
[01:52:41] um bom tempo que eu não recebo um texto excepcional.
[01:52:43] excepcional. Já aconteceu de eu receber texto de
[01:52:45] Já aconteceu de eu receber texto de aluno que era excepcional, que é eu olho
[01:52:47] aluno que era excepcional, que é eu olho pra pessoa, fala: "Você poderia ter sido
[01:52:48] pra pessoa, fala: "Você poderia ter sido escritor,
[01:52:50] escritor, tá? Ah, eu recebo os textos hoje muito
[01:52:53] tá? Ah, eu recebo os textos hoje muito bons, de alguns melhorou muito, mas
[01:52:56] bons, de alguns melhorou muito, mas ruins não aparece mais.
[01:52:58] ruins não aparece mais. Então, há essa normalização e eu
[01:53:00] Então, há essa normalização e eu [limpando a garganta] acho que a gente
[01:53:01] [limpando a garganta] acho que a gente precisa continuar se melhorando eh nesse
[01:53:04] precisa continuar se melhorando eh nesse novo nesse novo contexto, mas a minha
[01:53:07] novo nesse novo contexto, mas a minha preocupação é para as pessoas que
[01:53:10] preocupação é para as pessoas que delegam.
[01:53:12] delegam. Então, recentemente eu vi uma frase
[01:53:13] Então, recentemente eu vi uma frase muito interessante, eu tenho usado ela
[01:53:15] muito interessante, eu tenho usado ela que é a seguinte: eu não tenho medo da
[01:53:16] que é a seguinte: eu não tenho medo da IA, você já deve ter ouvido essa frase.
[01:53:18] IA, você já deve ter ouvido essa frase. Eu não tenho medo da IA, eu tenho medo
[01:53:20] Eu não tenho medo da IA, eu tenho medo da falta da inteligência natural.
[01:53:22] da falta da inteligência natural. [risadas]
[01:53:23] [risadas] Então, não tenho medo da inteligência
[01:53:24] Então, não tenho medo da inteligência artificial, tenho medo da falta da
[01:53:26] artificial, tenho medo da falta da inteligência natural. Quando você deixa
[01:53:28] inteligência natural. Quando você deixa de saber usar a sua, mas eu tenho um
[01:53:31] de saber usar a sua, mas eu tenho um pouco de preocupação com a
[01:53:32] pouco de preocupação com a homogeneização.
[01:53:34] homogeneização. Ele tava na frente.
[01:53:37] Ele tava na frente. >> Vamos ver quanto é. Temos mais uns 5
[01:53:38] >> Vamos ver quanto é. Temos mais uns 5 minutos. Eslene,
[01:53:40] minutos. Eslene, >> eu acho que às quatro tem. Então vamos
[01:53:42] >> eu acho que às quatro tem. Então vamos lá. Pergunta rápido e curtir. Ok.
[01:53:44] lá. Pergunta rápido e curtir. Ok. Obrigado. Eh, tem vários movimentos no
[01:53:47] Obrigado. Eh, tem vários movimentos no mercado que resultam dessa
[01:53:48] mercado que resultam dessa transformação. Uma, algumas são caristia
[01:53:51] transformação. Uma, algumas são caristia da ranta cultal, cloud vira de manejo de
[01:53:56] da ranta cultal, cloud vira de manejo de mão de obra em pesquisa, tem n vezes
[01:53:58] mão de obra em pesquisa, tem n vezes mais pesquisadores em centros privados
[01:54:00] mais pesquisadores em centros privados do que em instituições públicas comsite
[01:54:04] do que em instituições públicas comsite o barateamento de habilidades humanas
[01:54:05] o barateamento de habilidades humanas versus a subida na derrocada de seres
[01:54:08] versus a subida na derrocada de seres humanos, escassez de recursos vitais,
[01:54:11] humanos, escassez de recursos vitais, investimentos destrutivos.
[01:54:13] investimentos destrutivos. Isso pode ser considerado pilares de um
[01:54:15] Isso pode ser considerado pilares de um dos braços, o braço otimizador e da
[01:54:18] dos braços, o braço otimizador e da porque é uma otimização de lucro.
[01:54:20] porque é uma otimização de lucro. >> E como a gente pensa a resposta é isso,
[01:54:23] >> E como a gente pensa a resposta é isso, né? Isso tem que ter uma ressaca alguma
[01:54:24] né? Isso tem que ter uma ressaca alguma hora e a gente tem que adiantar isso de
[01:54:27] hora e a gente tem que adiantar isso de alguma maneira, não?
[01:54:28] alguma maneira, não? >> É, eu acho que a gente tem que ter um
[01:54:29] >> É, eu acho que a gente tem que ter um call for action, é uma chamada ação. Eh,
[01:54:31] call for action, é uma chamada ação. Eh, eu acho que é uma manifestação disso que
[01:54:33] eu acho que é uma manifestação disso que você colocou. Eh, a partir do momento
[01:54:36] você colocou. Eh, a partir do momento que você começa a otimizar essas
[01:54:37] que você começa a otimizar essas estruturas todas para o capitalismo, né?
[01:54:41] estruturas todas para o capitalismo, né? eh tá convidada a fazer minha disciplina
[01:54:42] eh tá convidada a fazer minha disciplina de impactos sociais e políticos no
[01:54:44] de impactos sociais e políticos no segundo semestre, outubro e novembro. A
[01:54:45] segundo semestre, outubro e novembro. A gente discute quatro futuros possíveis
[01:54:47] gente discute quatro futuros possíveis baseados nessa pergunta que você fez. Um
[01:54:50] baseados nessa pergunta que você fez. Um deles é o chamado futuro
[01:54:53] deles é o chamado futuro eh
[01:54:56] eh destrutivo.
[01:54:58] destrutivo. O futuro destrutivo é aquele em que a
[01:55:01] O futuro destrutivo é aquele em que a tecnologia ela vai ficar realmente na
[01:55:03] tecnologia ela vai ficar realmente na mão de muito poucos e o resto vai brigar
[01:55:06] mão de muito poucos e o resto vai brigar entre si por gás.
[01:55:09] entre si por gás. Comparado a isso, existe um futuro
[01:55:10] Comparado a isso, existe um futuro chamado rentista,
[01:55:12] chamado rentista, em que a gente tá vivendo parte dele
[01:55:14] em que a gente tá vivendo parte dele hoje,
[01:55:15] hoje, >> em que a gente vive emprestando e
[01:55:18] >> em que a gente vive emprestando e alugando por soluções e elas ainda estão
[01:55:20] alugando por soluções e elas ainda estão na mão de nas mãos de poucos. Existem
[01:55:23] na mão de nas mãos de poucos. Existem alguns um pouco mais interessantes, por
[01:55:25] alguns um pouco mais interessantes, por exemplo, o futuro, e eu acho totalmente
[01:55:28] exemplo, o futuro, e eu acho totalmente utópico, seria o futuro comunista, não
[01:55:30] utópico, seria o futuro comunista, não no comunismo no sentido de política que
[01:55:33] no comunismo no sentido de política que a gente conhece, mas o sentido de
[01:55:35] a gente conhece, mas o sentido de comuna. Ou seja, você tem um avanço de
[01:55:38] comuna. Ou seja, você tem um avanço de tecnologia tão grande e as coisas agora
[01:55:40] tecnologia tão grande e as coisas agora podem ser produzidas de forma tão fácil,
[01:55:42] podem ser produzidas de forma tão fácil, tão barata, que a gente pode produzir
[01:55:44] tão barata, que a gente pode produzir qualquer coisa para qualquer pessoa.
[01:55:46] qualquer coisa para qualquer pessoa. Então agora não há mais necessidades. Eu
[01:55:47] Então agora não há mais necessidades. Eu acho a chance é quase zero para esse
[01:55:50] acho a chance é quase zero para esse futuro. E a a disputa que eu acho que a
[01:55:53] futuro. E a a disputa que eu acho que a gente tá tendo hoje é se a gente vai no
[01:55:55] gente tá tendo hoje é se a gente vai no futuro destrutivo ou no rentista. São os
[01:55:58] futuro destrutivo ou no rentista. São os dois mais prováveis.
[01:56:00] dois mais prováveis. Então a gente tem que fazer de tudo para
[01:56:02] Então a gente tem que fazer de tudo para não ir no destrutivo,
[01:56:04] não ir no destrutivo, >> mas o rentista parece que tá se tornando
[01:56:06] >> mas o rentista parece que tá se tornando padrão e que tudo tem um preço e e esse
[01:56:10] padrão e que tudo tem um preço e e esse essa esse produto tá na mão de pouco.
[01:56:12] essa esse produto tá na mão de pouco. >> E aí o último aqui
[01:56:13] >> E aí o último aqui >> quea dos dois eles venceram. É, é,
[01:56:17] >> quea dos dois eles venceram. É, é, [risadas]
[01:56:18] [risadas] >> não acredito que consegui. É, mas eh eu
[01:56:21] >> não acredito que consegui. É, mas eh eu queria falar sobre essa ideia de a gente
[01:56:24] queria falar sobre essa ideia de a gente tá olhando pro ser humano, decidindo o
[01:56:26] tá olhando pro ser humano, decidindo o que pode, o que não pode ser computável
[01:56:28] que pode, o que não pode ser computável e a gente olha o papel do ser humano em
[01:56:31] e a gente olha o papel do ser humano em alhado aá como sendo aquilo que aá não
[01:56:34] alhado aá como sendo aquilo que aá não consegue fazer. E isso me lembra muito a
[01:56:36] consegue fazer. E isso me lembra muito a falar do deus lacunas, em que você tá
[01:56:39] falar do deus lacunas, em que você tá olhando e você fala: "Tá, mas o que é
[01:56:40] olhando e você fala: "Tá, mas o que é Deus?" Tudo que assim você não consegue
[01:56:42] Deus?" Tudo que assim você não consegue explicar.
[01:56:43] explicar. >> Aham. E eu acho que essa abordagem ela é
[01:56:45] >> Aham. E eu acho que essa abordagem ela é muito perigosa, porque você pode começar
[01:56:48] muito perigosa, porque você pode começar a evoluir as coisas e mas cada vez menos
[01:56:51] a evoluir as coisas e mas cada vez menos espaço. E eu acredito veementemente que
[01:56:55] espaço. E eu acredito veementemente que o mais responsável é se fazer é você
[01:56:58] o mais responsável é se fazer é você definir ética é isso. Seja uma definição
[01:57:02] definir ética é isso. Seja uma definição difícil, ela é melhor do que a ausência
[01:57:06] difícil, ela é melhor do que a ausência de água, a não computabilidade.
[01:57:08] de água, a não computabilidade. É porque caso contrário a gente acaba
[01:57:12] É porque caso contrário a gente acaba entrando
[01:57:14] entrando em uma nãoação de manhã. Em algumas pode
[01:57:17] em uma nãoação de manhã. Em algumas pode chegar, você pode falar: "Ah, se tornou
[01:57:19] chegar, você pode falar: "Ah, se tornou o ADI a partir de agora". E claro, tem
[01:57:21] o ADI a partir de agora". E claro, tem aquela questão da ADI modelar o próprio
[01:57:24] aquela questão da ADI modelar o próprio conceito do que é o ADI. você começa a
[01:57:26] conceito do que é o ADI. você começa a tentar eh adaptar aquilo para se tornar
[01:57:29] tentar eh adaptar aquilo para se tornar o que é atualmente,
[01:57:31] o que é atualmente, mas isso se torna insustentável a longo
[01:57:35] mas isso se torna insustentável a longo prazo, porque não existe uma garantia
[01:57:39] prazo, porque não existe uma garantia para um ser humano. Pergunta o que ela
[01:57:41] para um ser humano. Pergunta o que ela consegue fazer, quer dizer que ela
[01:57:42] consegue fazer, quer dizer que ela consegue fazer bem ou da mesma forma que
[01:57:44] consegue fazer bem ou da mesma forma que ser humano faz, porque a Bible não é o
[01:57:47] ser humano faz, porque a Bible não é o traçado da GB. A G [roncando]
[01:57:49] traçado da GB. A G [roncando] é
[01:57:51] é constituída pelos filmes, pelo contexto,
[01:57:54] constituída pelos filmes, pelo contexto, pelas pessoas que estavam lá, história,
[01:57:56] pelas pessoas que estavam lá, história, >> a história que estava envolvida. Então
[01:57:58] >> a história que estava envolvida. Então você consegue dissociar essas duas
[01:57:59] você consegue dissociar essas duas coisas, assim como você não consegue
[01:58:01] coisas, assim como você não consegue dissociar a decisão ética de uma pessoa,
[01:58:04] dissociar a decisão ética de uma pessoa, a lógica dela da pessoa em si. E isso,
[01:58:08] a lógica dela da pessoa em si. E isso, essa pessoalidade você não consegue
[01:58:10] essa pessoalidade você não consegue atribuir necessariamente a IA. Eu acho
[01:58:12] atribuir necessariamente a IA. Eu acho que quando você parte desse princípio e
[01:58:15] que quando você parte desse princípio e você olha para pro resultado, não
[01:58:17] você olha para pro resultado, não somente como o que foi gerado, mas o
[01:58:20] somente como o que foi gerado, mas o processo pelo qual ele foi gerado,
[01:58:23] processo pelo qual ele foi gerado, >> com certeza
[01:58:24] >> com certeza >> isso toma uma dimensão completamente
[01:58:25] >> isso toma uma dimensão completamente diferente, porque por definição a
[01:58:28] diferente, porque por definição a inteligência artificial não consegue
[01:58:29] inteligência artificial não consegue gerar algo natural, mesmo que ela
[01:58:32] gerar algo natural, mesmo que ela consiga codificar a empatia ou codificar
[01:58:35] consiga codificar a empatia ou codificar a ética, a ética que ela utiliza não tem
[01:58:38] a ética, a ética que ela utiliza não tem rosto.
[01:58:39] rosto. >> Uhum.
[01:58:40] >> Uhum. muito bem colocadas e é uma ótima forma
[01:58:43] muito bem colocadas e é uma ótima forma de nós encerrarmos hoje
[01:58:46] de nós encerrarmos hoje com uma colocação final. Na minha
[01:58:49] com uma colocação final. Na minha disciplina, eh, acho que no último
[01:58:52] disciplina, eh, acho que no último semestre eu fiz essa pergunta.
[01:58:55] semestre eu fiz essa pergunta. >> E se formos nessa direção que ele tá
[01:58:57] >> E se formos nessa direção que ele tá colocando aqui, que que tá sendo
[01:58:59] colocando aqui, que que tá sendo colocado aqui de que
[01:59:02] colocado aqui de que a IA se desenvolve tanto e a gente é
[01:59:05] a IA se desenvolve tanto e a gente é deixado para irrelevância, vocês
[01:59:07] deixado para irrelevância, vocês gostariam de viver nesse mundo?
[01:59:10] gostariam de viver nesse mundo? ou no mundo em que a gente volta ao que
[01:59:13] ou no mundo em que a gente volta ao que a Paula fez lá na primeira pergunta, no
[01:59:15] a Paula fez lá na primeira pergunta, no mundo natural em que a gente vive em
[01:59:19] mundo natural em que a gente vive em comunidades e não tem tecnologia alguma.
[01:59:21] comunidades e não tem tecnologia alguma. Surpreendentemente,
[01:59:23] Surpreendentemente, praticamente toda a turma respondeu que
[01:59:25] praticamente toda a turma respondeu que era retornar ao passado.
[01:59:28] era retornar ao passado. Obrigado.
[01:59:31] Obrigado. [aplausos]