Domingo no Golpe (documentário)

Domingo no Golpe é um documentário “Ready Media” Giselle Beiguelman e Lucas Bambozzi sobre a tentativa de golpe de Estado ocorrida em 8 de janeiro de 2023. A definição, alude a obras em que os autores mais chamam a atenção para o que já existe, do que criam algo totalmente novo. É o caso deste documentário, que foi inteiramente produzido com as imagens das câmeras de segurança do Palácio do Planalto.

Essas imagens foram disponibilizadas à imprensa pelo GSI (Gabinete de Segurança Institucional), por ordem do Supremo Tribunal Federal (STF) em abril de 2023. A narração foi criada a partir de trechos do relatório final da CPMI dos Atos de 8 de Janeiro, divulgado em 17 de outubro de 2023, lido pela senadora Eliziane Gama (relatora).

Domingo no Golpe aborda um 8 de janeiro que não começou há um ano e, todavia, não terminou, segundo o pronunciamento da relatora, que funciona como um fio condutor da narrativa. O documentário teve uma um corte inicial previamente disponibilizado ao público no dia 08 de janeiro de 2024, pela internet.

Conceitos e linguagens

Stills de Domingo no Golpe. Imagens dos vídeos das câmeras de segurança do Palácio do Planalto registradas pelas câmeras de vigilância do GSI e disponibilizadas à impresa por ordem do STF.

A ideia de se fazer o lançamento definitivo por ocasião da data em que se completam 60 anos do Golpe de 1964, reflete sobre as continuidades entre esse e outros acontecimentos similares recentes. A sugestão de que a história dos atentados contra a transformação social são um contínuo na história brasileira, em atos nem sempre democráticos, por parte das elites brasileiras, está em uma das falas de Darcy Ribeiro, uma das vozes que conduzem o documentário.

Um outro aspecto comentado pelo documentário Domingo no Golpe é a configuração do traçado previsto para a cidade de Brasília, refletindo os poderes constituídos. Na fala de Lúcio Costa, também presente do documentário, a idéia foi “criar uma praça triangular equilátera, porque os três poderes teoricamente têm o mesmo peso”. O que vemos, no entanto, é uma clara intenção de ataque não apenas aos poderes representados, mas também aos símbolos da cultura republicana e democrática.

Assista outros trialers

Lucas Bambozzi comenta que o trabalho é uma busca semiótica por momentos representativos do que foi o Domingo de 08 de janeiro de 2023:

“Em operações manuais de avanço, aceleração e pausa, identificamos pontos e momentos precisos, em uma lógica estética que reflete articulações de imagens conhecidas nos anos 1980 como scratch video, entre a velocidade voraz, o slow motion e o still, numa busca por personagens, ações e expressões faciais que refletem cinismos, ignorâncias, ingenuidade e violências, como momentos significantes em cada clip das 33 câmeras a que tivemos acesso”, diz Lucas.

Stills de Domingo no Golpe. Imagens dos vídeos das câmeras de segurança do Palácio do Planalto registradas pelas câmeras de vigilância do GSI e disponibilizadas à impresa por ordem do STF.

Já Giselle Beiguelman destaca que o documentário revela não só pontos de vista inusitados sobre Brasília, dados pelas câmeras de segurança, mas também a fragilidade da noção de espaço público, de bem comum entre nós.

“A capital que se vê no documentário não é a da imponência modernista das construções de Niemeyer e da utopia do urbanismo de Lucio Costa, mas um território de agressões ao patrimônio público. São ataques indiscriminados e violentos contra a arquitetura, as obras e todo e qualquer objeto. Há uma espécie de frenesi da destruição que implicitamente supõe que o que é público é de ‘ninguém’ e, sendo assim, você pode ir lá e fazer o que você quiser. Mas o espaço público é exatamente o contrário disso. É exatamente por se público que é negociado, princípio que é um dos pilares da compreensão sobre o que é a democracia”, afirma Giselle.

Lucas e Giselle destacam ainda que o documentário apresenta também uma sui generis arqueologia das câmeras de vigilância, já que as quase 800 horas de vídeo que registraram o ataque ao Palácio do Planalto em 8 de janeiro, a partir de 33 diferentes pontos, são de épocas, sistemas e qualidades muito diferentes entre si. Preservar e dar nitidez a essa variedade de linguagens de registros levou os artistas a optarem por não homogeneizar, via tratamento de imagens, seu colorido, nem mascarar seus intermitentes “bugs”, ruídos e distorções.

O título do documentário nasceu do inusitado das imagens, em que os golpistas aparecem com cadeiras de praia, camisetas da CBF e uma parafernália de símbolos pátrios revisitados, num clima de domingão, no qual o grande programa não era ir ao parque, mas ao golpe. Rever essas imagens implica pensar nos vários ataques à democracia brasileira e as formas de resistência a esse atentados.

Para imagens de divulgação e contatos para exibição, escreva para: acervosdigitais [at] usp [dot] br

Inteligência Artificial em Museus

Neste seminário, ministrado pela pesquisadora Renata Perim, foram analisados 15 sites de museus que estão utilizando recursos de Inteligência Artificial no tratamento e divulgação de seus acervos.

Sites analisados:

The Museums + AI Network

MoMA & Machine Learning

https://experiments.withgoogle.com/moma

Rijksmuseum + The MET

https://microsoft.github.io/art/app

The Met – Open Access Program

https://www.metmuseum.org/blogs/digital-underground/2017/open-access-at-the-met

The Met – Collection API

https://www.metmuseum.org/blogs/now-at-the-met/2018/met-collection-api

Cleveland Museum of Art 

https://www.clevelandart.org/art/collection/search?i=2

https://www.clevelandart.org/art/collection/share-your-view#

Barnes Foundation – Using computer vision to tag the collection

https://medium.com/barnes-foundation/using-computer-vision-to-tag-the-collection-f467c4541034

Barnes Foundation

https://collection.barnesfoundation.org/

The Met – All at Once

http://www.thegreeneyl.com/allatonce

Harvard Art Museum

https://ai.harvardartmuseums.org/

Cooper-Hewitt

https://labs.cooperhewitt.org/2013/giv-do/

Sarjeant Gallery – Robot eyes

https://medium.com/@armchair_caver/looking-at-sarjeant-gallerys-collection-through-robot-eyes-c7fd0281814e

SFMOMA – sentiment analysis

SFMOMA – send me 

Museu Paulista  (experimentos com IA feitos pelo projeto demonumenta)

http://demonumenta.fau.usp.br/museu-paulista/

Pinacoteca – A voz da arte

Estudos de caso: arquivos contra-hegemônicos

Nossas discussões sobre formatos de arquivos contra-hegemônicos e distribuídos focaram alguns estudos de caso. Esses estudos são fundamentais para nos aproximar do desenho que queremos para formular o acesso a acervos que não existem, especialmente sobre a arquitetura e o design brasileiros nativamente digitais, mas também sobre arte digital. [1]

Estudos de caso

Os estudos de caso em que nos concentramos, para parametrizar o desenvolvimento de arquivos baseados em sistemas de IA são:

  • (De)Composite Collections
  • On Broadway
  • VFRAME

(De)Composite Collections

Giselle Beiguelman, Bruno Moreschi e Bernardo Fontes, 2021

Desenvolvido no contexto da residência intelligent.museum (ZKM/ Deutsches Museum), seu ponto de partida são coleções de arte organizadas na primeira metade do século XX e suas questões são: Quais outras histórias da arte podem emergir das leituras de IA das imagens por uma Inteligência Artificial (IA) que lê essas imagens? Como elaborar metodologias baseadas em IA para mapear os elementos constitutivos das representações do colonialismo histórico? Os sistemas de IA podem contribuir para compreender o olhar como uma construção histórica?

Seguindo os estudos do pensamento pós-colonial, que têm questionado essa abordagem, o projeto incorporou metodologias desenvolvidas no projeto demonumenta e abordou as coleções do Museu Paulista da USP e do MAC-USP, compilando datasets, organizados de acordo com alguns temas recorrentes na pintura histórica e no Modernismo brasileiro: povos indígenas, pessoas pretas, pessoas brancas e natureza tropical. Processados algoritmicamente com GANs, esses datasets permitiram identificar alguns elementos comuns e diferenças entre as coleções do MP-USP e do MAC-USP, em obras produzidas entre 1920 e 1955, a despeito das categorias e tipologias da história tradicional da arte. Isso porque as tecnologias de IA leem imagens a partir de imagens, revelando padrões ocultos nos conjuntos iconográficos, incluindo pinturas, gravuras e desenhos, indo além das narrativas historiográficas e estilos formais.

Através das técnicas de aprendizado de máquina, pudemos compreender a persistência da imaginação colonialista nas obras de arte, contradizendo algumas afirmações canônicas sobre as rupturas estéticas e ideológicas do Modernismo brasileiro. Essas continuidades vão desde o corpo negro nu associado ao trabalho nas plantações, a semelhança patriarcal dos homens brancos, geralmente retratados sozinhos e com roupas formais, até os povos indígenas retratados como entidades genéricas sem características particulares. No entanto, as mudanças são evidentes na representação das mulheres brancas. Enquanto a pintura histórica se concentra exclusivamente em seus rostos, a pintura moderna enfatiza o corpo da mulher. No entanto, isso é sempre entendido a partir de um ponto de vista misógino, enfatizando seus seios e o ventre (sgnos relacionados à maternidade). No que diz respeito às mulheres negras, o estereótipo da escravizada sensual é dominante.

O que este estudo sugere ao nosso projeto:

Os experimentos feitos em (De)Composite Collections mostram que o uso de recursos de IA pode contribuir para análises críticas que metodologias tradicionais na história da arte não são capazes de avaliar. Ao mesmo tempo, as imagens sintetizadas com redes neurais revelam seus limites para lidar com a diversidade social e a diversidade inerente aos procedimentos criativos individuais. Devido à dependência das GANs de padrões existentes, os processos de treinamento apontam para visões genéricas, tendendo a reproduzir os estereótipos da imagética colonial reformulada pelas tecnologias digitais.

On Broadway, 2015

Daniel Goddemeyer, Moritz Stefaner, Dominikus Baur, Lev Manovich (Coord.)

On Brodway” é um arquivo da avenida homônima, em Nova York, construído a partir de dados coletados no Instagram, Twitter, Google Street View, Foursquare, além dos que são provenientes do monitoramento de corridas de táxi e alguns dados econômicos. 

Inspirado em na obra “Every Building on the Sunset Strip” de Edward Ruscha  (1966), um livro de artista que se desdobra em 8,33 metros para mostrar vistas fotográficas contínuas de ambos os lados de uma seção de 1,5 milhas da Sunset Boulevard, avenida de Los Angeles. O pressuposto do projeto é que as ruas tornaram-se ruas de dados e que “Hoje, uma cidade ‘fala’ conosco em dados”:

Muitas cidades disponibilizam conjuntos de dados e patrocinam hackathons para incentivar a criação de aplicativos úteis usando seus dados. Moradores e turistas postam mensagens e mídia que incluem suas localizações no Twitter, Instagram e outras redes sociais. Como podemos utilizar essas novas fontes de informação para representar a cidade do século XXI? (grifos nossos).

O que este estudo sugere ao nosso projeto:

A pergunta formulada por Manovich é central no nosso projeto de pesquisa. A metodologia poderia ser orientada para pensarmos em um arquivo de arte, arquitetura e design com foco nas favelas, por exemplo, que tivesse o YouTube como sua fonte de dados? Um recorte temático, como “favela”, poderia ser um ponto de partida na formulação de um arquivo contra-hegemônico? Que outros recortes são possíveis e que escapam aos acervos institucionais? 

(Por outro lado, isso _ a coleta de dados massivos disponível online_ poderia contornar um problema que identificamos em nossos levantamentos: a carência de arquivos públicos sobre arquitetura e design brasileiros disponíveis online.) 

VFRAME, (2019 – em diante)

A ideia de usar o YouTube como referência para criar arquivos que não existem tem como ponto de partida o projeto VFRAME  (Visual Forensics and Metadata Extraction) de Adam Harvey iniciado com a ONG Syrian Archive, e hoje com a Mnemonic.org, uma organização dedicada a documentar crimes de guerra, que tem como foco a identificação, em vídeos captados nas zonas de guerra, de bombas de fragmentação. Conhecidas como armas-contêineres, bombas de fragmentação são bombas que carregam outros artefatos explosivos. São uma das criações mais horrendas da Alemanha nazista e que continuam sendo usadas nas guerras do Oriente Médio, especialmente na Síria.

O VFRAME é um instrumento para denunciar a presença dessas bombas, que são proibidas em 120 países. Antes que se pergunte, o Brasil não é signatário dos tratados internacionais que as proíbem. Produz e exporta esse tipo de armamento. Um dos maiores problemas por esse tipo de armamento é que as bombas podem permanecer intactas, enterradas por muitos anos, atingindo a população civil. Nos últimos cinco anos, 77% das mortes por bombas de fragmentação ocorreram na Síria. Em 2017, das 289 mortes ocorridas, 187 foram registradas ali.

O VFRAME usa modelagem 3D e fabricação digital, combinados a um software de processamento de imagem com ferramentas de visão computacional e Inteligência Artificial para detectá-las. Seus algoritmos são capazes de organizar, classificar e extrair metadados de 10 milhões de vídeos, feitos nas zonas de guerra e disponíveis on-line, em menos de 25 milissegundos, identificando, nesses vídeos, o uso das bombas de fragmentação. 

O software realiza um trabalho em escala massiva impossível de se fazer manualmente. Apropriando-se de datasets e processos de machine learning, o VFRAME enuncia, assim, um contramodelo à vigilância algorítmica. Ao apostar no uso da IA e do Big Data como poderosos recursos na defesa dos direitos humanos, define também um campo nas práticas de descolonização dos dados que, no quadro de nosso projeto tem importância crucial. 

O que esse estudo sugere ao nosso projeto?

Se quisermos entender como é a cozinha da favela brasileira, não obteremos esses dados no Museu da Casa Brasileira, mas teremos os objetos da Casa Grande… Criar estratégias para não falar por e sim deixar que os sujeitos dos processos históricos falem de si é importante. Mais ainda, compreender que a prioridade não é criar canais de fala, mas sim de escuta. Dito de outra forma: “Resistir ao assentamento do “não-lugar” é uma estratégia de subsistência”. E isto passa por descompreender a favela como lugar de abjetos ou objeto de estudo para entendê-la como lugar de sujeitos.

O YouTube como espaço crítico

A quantidade de vídeos no YouTube que documentam as favelas brasileiras, de acordo com uma busca feita no Google, é de aproximadamente 17.200.000. No que tange à arquitetura moderna, esse número cai para 1.440.000 resultados. Isso não implica uma falsa hierarquia de importância entre a favela e arquitetura moderna, mas enuncia um contraponto que não se pode deixar de problematizar, pois essas assimetrias de números de conteúdos praticamente se invertem quando atentamos para os dados sobre teses e dissertações defendidas no Brasil. Uma busca feita pelos mesmos termos na Biblioteca Digital de Teses e Dissertações, mostra que  presença do termo Arquitetura Moderna é 36.3% maior que o termo Favela.

Ainda que seja necessário depurar esses dados, fica claro que se quisermos fabular um arquivo de consultas sobre arte, arquitetura e design, com recorte temático nas favelas, os dados com maior consistência, estarão nas redes e não nos acervos oficiais, muito menos nos acadêmicos. 

Nesse sentido, pensar formatos de arquivos que combinem as metodologias dos processos citados pode indicar aberturas para outros modelos de arquivos para nosso Projeto Temático, forjando estratégias que vêm das potencialidades do Sul Global.

“Nossa originalidade é nossa fome”

Nessa perspectiva, aderimos a uma frase de Glauber Rocha que nos serve como norte de trabalho. Ao dizer que nossa originalidade é nossa fome, Gleuber não se propunha a referendar a uma certa abordagem que privilegia a apologia do miserabilismo, ou o comodismo do vira-latismo. Pelo contrário, enuncia uma busca por novas formas de conhecimento e engajamento que partam das fragiligilidades de nossas infraestruturas como potência para a vampirização criativa da intelig6encia distribuída e disponível nas redes.

Um aspecto essencial desse processo é o foco na interconexão nos achados que fizemos ao longo do semestre. Em especial, os resultados de nosso workshop sobre metodologias ágeis que revelou claramente nossas prioridades: o rastreamento e a absorção de bancos de dados disponíveis nas redes e a criação de APIs que sejam capazes de fazer a integração de metadados e devolvê-los de forma integrada aos nossos públicos.

Nossa prioridade (e desafio maior) reside na capacidade de absorver diversas fontes e relacioná-las a discursos críticos (o que inclui também a crítica dos próprios dados). Portanto, nosso ponto de partida não é a catalogação, mas sim o machine learning apropriado para pensar a criação de nosso próprio “crawler”.

[1] Texto elaborado por Giselle Beiguelman, a partir da transcrição da reunião on-line,  realizada em 26 de junho de 2023, com a presença de: Ana Magalhães, Bruno Moreschi, Eduardo Costa, Heloisa Espada, Paula Perissinotto, Priscila Arantes, Renata Perim .

 

Definição de funcionalidades e uso de metodologias ágeis

Na construção de um projeto, é essencial ter uma lista clara de funcionalidades e requisitos técnicos para orientar o desenvolvimento. Ao mesmo tempo, definir as funcionalidades de um projeto é uma etapa crucial para garantir que as expectativas sejam atendidas e que o resultado final seja satisfatório 

Workshop de definição de funcionalidades com Metodologias ágeis
Workshop de definição de funcionalidades com Metodologias ágeis

Optamos em nosso projeto por trabalhar de forma colaborativa e utilizar metodologias ágeis, para criar uma lista dinâmica de recursos e requisitos. Essa lista será constantemente revisada e atualizada ao longo do projeto, mas serve como um ponto de partida para identificar os pontos iniciais do projeto e avaliar as suas necessidade de infraestrutura e equipe técnica. Além disso, facilita priorizar os itens, uma vez que recursos e tempo são limitados. [1]

A metodologia ágil é conveniente porque permite avaliar os recursos desejados e focar nas prioridades. É comum, durante o desenvolvimento, perder o foco e se afastar dos objetivos iniciais. Por isso, é importante voltar aos eixos do projeto e definir as funcionalidades que realmente importam. Optamos por trabalhar de forma colaborativa e utilizar como framework o Scrum, para criar uma lista dinâmica de recursos e requisitos.

A dinâmica de trabalho com metodologias ágeis

O uso de métodos ágeis tem ganhado destaque, pois essa metodologia reconhece a impossibilidade de dar conta de todas as demandas e priorizam as mais importantes. Dessa forma, é possível criar níveis de especificações, limitando o escopo do projeto e evitando que ele se torne demasiadamente complexo. Outra vantagem é permitir pensar o projeto a partir de camadas de funcionalidades, evitando que os erros se propaguem, não impactado as outras camadas do projeto.

Ao definir as especificações, é importante ter em mente o que já está documentado, evitando interpretações equivocadas. O desenvolvimento de camadas sistêmicas, demandar clareza sobre o que se espera de cada uma delas, evitando conflitos e garantindo a harmonia do conjunto

A dinâmica que usamos partiu da descrição objetiva, feita por cada membro do grupo, das funcionalidades que pretendemos, buscando explicitar cada recurso que queremos ver implementado, usando post-its em uma parede. Depois, olhamos em conjunto para as funcionalidades, buscando agrupar os iguais, parecidos ou que dialoguem com a mesma temática. 

Por fim, priorizamos os requisitos, com um conjunto de cartas de baralho que simbolizam pontos (10, 7, 3 e 1), alocando as cartas conforme a funcionalidade que pareceu a cada um a mais interessante. 

Aspectos críticos do uso de Inteligência Artificial

Em projetos que envolvem o desenvolvimento de IA, é comum a dúvida sobre a integração com outras plataformas, tornando a definição das APIs que serão utilizadas um ponto crucial. A questão da escolha das APIs, sejam elas comerciais ou de plataformas públicas, é uma decisão que deve ser tomada com base nas necessidades específicas do projeto, mas também de forma crítica. Isso porque a escolha das APIs pode ter um impacto significativo na forma como o sistema funciona, reforçando hierarquias vigentes, ao reproduzir os sistemas hegemônicos,  no desenvolvimento de projetos de IA. 

Essa hegemonia, que implica a dicussão dos mecanismos de produção social do datacolinismo, via o que chamamos de darwinismo social dos dados, se expressa, por exemplo , na tendência a das buscas retornarem bibliografia em língua inglesa e autores melhores posicionados em rankings acadêmicos. 

Uma possibilidade que aventamos para contornar, em parte, esse problema, é superpor várias APIs, privilegiando no dataset os bancos de dados públicos brasileiros, como o Scielo e o Banco Nacional de Teses. Ao superpor várias APIs, podemos promover a clusterização das respostas, fomentando a crítica dos resultados, pois permitimos que o usuário do sistema tenha acesso às respostas de buscas de diferentes plataformas. 

Esse trabalho é também de natureza pedagógica e é importante para criar uma camada de inteligência que permita ao usuário fazer uma curadoria, selecionando aqueles resultados que são mais relevantes para suas necessidades e visualizando os impactos da modelagem dos dados nas respostas dadas pelas buscas, compreendendo melhor o funcionamento do sistema e fazendo escolhas mais informadas.

[1] Texto redigido pelo ChatGPT, elaborado a partir das notas da reunião do projeto temático Fapesp LinCar, realizada no dia 18/04/2023, com a presença de: Bruno Moreschi, Dalton Martins, Giselle Beiguelman, Paula Perissinotto, Priscila Arantes, Renata Perim. Edição final: Giselle Beiguelman