EN PT

Studies & Projects

This section showcases original projects developed as applied studies. The focus is not volume, but architectural clarity, systemic thinking, and practical delivery.

Nesta seção apresento projetos autorais desenvolvidos como forma de estudo aplicado. O foco não é volume, mas clareza de arquitetura, pensamento sistêmico e entrega prática.

Production-Ready RAG System with Monitoring

Sistema RAG com Monitoramento em Produção

End-to-end enterprise Retrieval-Augmented Generation (RAG) platform built for real-world applications. The system goes beyond simple vector search by orchestrating a complex, scalable flow using graph-based agents, double semantic validation with Reranking and Neural Networks (DistilBERT), paired with a high-performance containerized API and closely audited by native asynchronous benchmarking tools.
Impact: Transforms massive directories of unstructured data (PDFs, Markdown, TXTs) into an API that delivers precise, hallucination-free answers. Provides a resilient MLOps foundation ready for production, meeting strict industry SLAs through comprehensive log visibility, P95 latency architectural limits, and secure deployment.

Plataforma corporativa ponta a ponta de Retrieval-Augmented Generation (RAG) preparada para uso no mundo real. O sistema vai além de uma simples busca por vetores, orquestrando um fluxo complexo e escalável utilizando agentes baseados em grafos, dupla validação semântica com Reranking e Redes Neurais (DistilBERT), aliado a uma API de alto desempenho encapsulada em contêineres e auditada de perto por ferramentas nativas de benchmarking assíncrono.
Impacto: Plataforma corporativa ponta a ponta de Retrieval-Augmented Generation (RAG) preparada para uso no mundo real. O sistema vai além de uma simples busca por vetores, orquestrando um fluxo complexo e escalável utilizando agentes baseados em grafos, dupla validação semântica com Reranking e Redes Neurais (DistilBERT), aliado a uma API de alto desempenho encapsulada em contêineres e auditada de perto por ferramentas nativas de benchmarking assíncrono.

Python 3.12 LangChain & LangGraph Cohere API (LLMs e Rerankers) FAISS HF Transformers PyTorch FastAPI & Uvicorn Docker Docker Compose Pytest HTTPX
View technical details Ver detalhes técnicos
  • Intelligent Ingestion & Vector Storage: Dynamic processing of multiple formats, creating semantic chunks. Generates mathematical embeddings locally using the all-MiniLM-L6-v2 model and indexes them quickly on disk using the FAISS engine for maximum similarity search.
  • Ingestão e Armazenamento Vetorial Inteligente: Processamento dinâmico e inteligente de múltiplos formatos, criando fragmentos semânticos (chunks). Gera embeddings matemáticos localmente através do modelo all-MiniLM-L6-v2 e os indexa de maneira rápida em disco utilizando buscas por similaridade máxima no motor do FAISS.
  • Multi-Agent Orchestration (LangGraph): Logical flow (START -> retrieve -> generate -> END) governed by graph technology driving Cohere's powerful LLM (command-r-plus-08-2024), facilitating modular maintenance and ensuring a clean retrieve-generate cycle in the memory state.
  • Orquestração Multi-Agente (LangGraph): Fluxo lógico (START -> retrieve -> generate -> END) governado por tecnologia de grafos acionando o potente LLM autoral da Cohere (command-r-plus-08-2024), facilitando assim manutenção modular e garantindo que o ciclo recuperação-geração interaja limpo no estado de memória.
  • Semantic Quality Shield (Reranking & Fine-Tuning): Aggressively optimizes raw results by cross-referencing them with CohereReranker filters. As an extra safeguard layer, it implements syntactic classification via a custom fine-tuned local neural network (distilbert-base-uncased) using modern PyTorch, validating the quality of the Question-Answer pairing.
  • Escudo de Qualidade Semântica (Reranking & Fine-Tuning): Otimiza agressivamente os resultados brutos cruzando-os com filtros do CohereReranker. Como camada de salvaguarda extra, implementa classificação sintética via uma rede neural local customizada (fine-tuned) distilbert-base-uncased usando PyTorch moderno, atestando a qualidade do pareamento Pergunta-Resposta.
  • Production Architecture & MLOps: Secure RESTful API built with FastAPI, featuring a smart asynchronous global lifespan to load heavy inference models (Embeddings/Rerankers) only once upon startup, preventing RAM leakage. The solution is isolated from the host and easily initialized via docker-compose.
  • Arquitetura de Produção e MLOps: API RESTFul protegida baseada em FastAPI, com lifespan global asíncrono e inteligente para carregar modelos de inferência pesados (Embeddings/Rerankers) uma única vez na subida limitando vazamento de RAM. Solução isolada do host e facilmente inicializável por docker-compose.
  • Stress Benchmarking & Monitoring: Uses native Python asynchronous scripts to run concurrent batches that stress the API, reporting detailed data on Average Latency, batch request error rates, and P95 percentiles, combined with precise Uvicorn global log interceptions.
  • Benchmarking Extressivo e Monitoramento: Conta diretamente com scripts em Python nativamente assíncronos testando lotes concorrentes para estressar a API, relatando dados detalhados na taxa Média de Latência, taxa de erro de requisição em bateria e percentil P95 vitalícia aliada a intercepções precisas dos Logs globais do uvicorn.
View project on GitHub → Ver projeto no GitHub →

Podcast/YouTube Automation — Transcribe → SEO → Publish (with Web UI)

Automação Podcast/YouTube — Transcrever → SEO → Publicar (com UI Web)

End-to-end automation pipeline that turns long-form audio/video into a complete, publishable content package. It ingests from YouTube or local files, extracts/normalizes audio, transcribes with Whisper (API or local), and generates structured outputs with LLMs: TL;DR, key points, quotes, chapters (YouTube-style), SEO titles/ description/tags/hashtags, and a full blog post. It optionally updates YouTube metadata, creates a WordPress draft, and a Notion page — all with retries, idempotent safeguards, and structured logs. Includes a simple Gradio Web UI to run jobs, stream logs, preview outputs, and download files.
Impact: Cuts prep time by 70%+, standardizes quality across episodes, and enables non‑engineers to run the workflow safely (Docker), with token-usage visibility and clear acceptance artifacts per episode.

Pipeline de automação ponta a ponta que transforma áudio/vídeo longos em um pacote de conteúdo pronto para publicação. Faz ingestão a partir do YouTube ou arquivos locais, extrai/normaliza áudio, transcreve com Whisper (API ou local) e gera saídas estruturadas com LLMs: TL;DR, pontos-chave, citações, capítulos (estilo YouTube), títulos/descrição/tags/hashtags SEO e um post completo de blog. Opcionalmente atualiza metadados no YouTube, cria rascunho no WordPress e página no Notion — tudo com retries, salvaguardas idempotentes e logs estruturados. Inclui uma UI Web simples em Gradio para executar tarefas, acompanhar logs, visualizar saídas e baixar arquivos.
Impacto: Reduz o tempo de preparação em 70%+, padroniza a qualidade entre episódios e permite que times não técnicos operem o fluxo com segurança (Docker), com visibilidade de uso de tokens e artefatos claros por episódio.

Python 3.11 Click (CLI) Pydantic & YAML Settings structlog Tenacity (retries) yt-dlp ffmpeg Whisper (OpenAI / faster-whisper) OpenAI GPT‑4o / Anthropic Claude Google YouTube Data API v3 WordPress REST API Notion API Gradio (Web UI) Docker Pytest
View technical details Ver detalhes técnicos
  • Ingestion & Media Pipeline: YouTube download via yt‑dlp, local file support, audio extraction (WAV 16 kHz mono) and optional loudness normalization (ffmpeg loudnorm) for better STT accuracy.
  • Ingestão e Mídia: Download do YouTube com yt‑dlp, suporte a arquivo local, extração de áudio (WAV 16 kHz mono) e normalização opcional de loudness (ffmpeg loudnorm) para melhor acurácia na transcrição.
  • Speech‑to‑Text Strategy: Whisper API (whisper‑1) for timestamped segments or local faster‑whisper. Automatic chunking for >25MB API limits and consistent timecode mapping (SRT/VTT/JSON).
  • Transcrição: Whisper API (whisper‑1) com timestamps por segmento ou faster‑whisper local. Fragmentação automática para arquivos >25MB e mapeamento consistente de timecodes (SRT/VTT/JSON).
  • LLM Content Generation: Prompted templates generate TL;DR, key points, quotes, chapters (with strict rules), SEO (titles/description/tags/hashtags), and a Markdown blog. Resilient JSON parsing with code‑fence removal and regex recovery.
  • Geração com LLM: Templates produzem TL;DR, pontos‑chave, citações, capítulos (regras rígidas), SEO (títulos/descrição/tags/hashtags) e blog em Markdown. Parser robusto com remoção de code‑fences e fallback por regex.
  • Publishing & Idempotency: YouTube metadata update (or prepared JSON if video ID not available), WordPress draft (Markdown→HTML converter), and Notion page (tags + transcript blocks). Idempotent files prevent duplicates.
  • Publicação & Idempotência: Atualização de metadados no YouTube (ou JSON preparado sem ID), rascunho no WordPress (conversão Markdown→HTML) e página no Notion (tags + blocos de transcript). Arquivos idempotentes evitam duplicatas.
  • Web UI (Gradio): Run pipeline with step selection (ingest/transcribe/NLP/publish), live log streaming, and “View Outputs” (SRT/JSON/Markdown) with multi‑file download; refreshable run list from outputs/.
  • UI Web (Gradio): Executa pipeline com seleção de etapas (ingest/transcribe/NLP/publish), streaming de log e aba “View Outputs” (SRT/JSON/Markdown) com download múltiplo; lista de execuções atualizável a partir de outputs/.
  • Observability & Ops: Structured logs (structlog), retries with exponential backoff (tenacity), configurable via .env + settings.yaml, and per‑run report.json (LLM provider/model and token usage).
  • Observabilidade & Ops: Logs estruturados (structlog), retries com backoff exponencial (tenacity), configuração via .env + settings.yaml e report.json por execução (provedor/modelo LLM e uso de tokens).
  • Safety & Costs: Name‑correction and filler‑removal filters, chapter title/length constraints, optional WAV cleanup to save storage, and clear trade‑offs (API vs local) for cost/latency.
  • Segurança & Custos: Correção de nomes e remoção de muletas, restrições de títulos/capítulos, limpeza opcional de WAV para economizar espaço e trade‑offs claros (API vs local) para custo/latência.
  • Delivery & Deployment: Dockerized workflow, CLI entrypoint (Click), Pytest coverage for key modules, and OAuth/App Password flows for YouTube/WordPress. Runs locally or on a simple VPS.
  • Entrega & Deploy: Workflow dockerizado, CLI (Click), testes Pytest em módulos críticos e fluxos OAuth/App Password para YouTube/WordPress. Roda localmente ou em um VPS simples.
View project on GitHub → Ver projeto no GitHub →

Multi-LLM Chatbot for Developers

Multi-LLM Chatbot para Desenvolvedores

A unified chatbot interface that connects you to the most advanced LLMs on the market (GPT-5, Claude Sonnet 4.6, Gemini-3, Grok, and Qwen3-Coder) in a single environment. Designed for developer productivity, it supports native file uploads for source code, documents, and media while preserving full conversational context.
Impact:Centralizes access to multiple state-of-the-art AI systems and eliminates the need to switch between browser tabs or maintain multiple web interface subscriptions. Streamlines code analysis and enables direct response comparison across different models.

Chatbot Multi-LLM para Programadores Interface unificada de chatbot que conecta você aos LLMs mais avançados do mercado (GPT-5, Claude Opus 4.6, Gemini-3, Grok 4.1 e Qwen3-Coder) em um só lugar. Focado em produtividade para desenvolvimento, suporta o envio nativo de arquivos de código, documentos e mídias, mantendo o contexto completo da conversa.
Impacto: Centraliza o acesso a diferentes IAs de ponta e elimina a necessidade de alternar entre abas ou pagar múltiplas assinaturas de interfaces web, facilitando a análise de código e comparação de respostas entre modelos.

Python 3.12 Gradio (UI Framework) OpenAI API Pandas Anthropic API Google GenAI SDK Python-dotenv
View technical details Ver detalhes técnicos
  • User Interface: Built with Gradio Blocks and custom soft-themed styling. Supports MultimodalTextbox components and real-time model switching without interrupting active sessions.
  • Interface de Usuário: Construída com Gradio Block UI e temas customizados suaves, oferecendo suporte a MultimodalTextbox e troca rápida de modelos em tempo real.
  • LLM Manager: An abstraction and routing layer that standardizes prompt submission and response parsing across different API formats (OpenAI, Anthropic, and Google).
  • LLM Manager: Camada de abstração e roteamento que padroniza o envio de prompts e a interpretação de respostas para diferentes formatos de API (OpenAI, Anthropic e Google).
  • Memory Management: A dedicated MemoryManager injects session IDs into every request, preserving chat history and maintaining continuous conversational context throughout navigation.
  • Gerenciamento de Memória: O MemoryManager injeta IDs de sessão em cada requisição para manter o histórico e o contexto do chat de forma contínua durante a navegação.
  • Multimodality & Parsing: The file_parser module automatically extracts text from multiple file formats (.txt, .py, .js, .pdf, .csv, etc.) and appends structured metadata and content alongside the user prompt before dispatching it to the selected model.
  • Multimodalidade e Parsing: O file_parser extrai automaticamente o texto de arquivos variados (.txt, .py , .js, .pdf, .csv, etc) e anexa metadados/conteúdos formatados ao lado do prompt do usuário antes do envio ao modelo.
  • Provider Flexibility: Custom base URLs (such as xAI and DeepSeek/Qwen) allow integration of multiple providers and open-source models using a unified OpenAI-compatible client library.
  • Flexibilidade de Provedores: Uso de URLs base personalizadas (como xAI e DeepSeek/Qwen) permitindo a integração de múltiplos provedores e modelos open-source utilizando a mesma biblioteca cliente da OpenAI.
View project on GitHub → Ver projeto no GitHub →

AI Pipeline Web-Scraping Data Extraction

AI Pipeline Web-Scraping Data Extraction

Advanced pipeline for web discovery, deep extraction, and AI-powered content analysis. The system blends a hybrid scraper (httpx + Playwright + yt-dlp) with a multi-provider analyzer (Claude 3.5 Sonnet and Gemini 1.5 Flash via google-genai), plus first-class cloud export through Dropbox and Notion.
Impact: Turns ad‑hoc research into a repeatable, auditable workflow that discovers relevant sources, downloads images and videos, extracts full text into .txt, summarizes and ranks findings, and ships organized deliverables to the cloud—reliably operating under API rate limits for media-heavy tasks.

Pipeline avançado para descoberta na web, extração profunda e análise de conteúdo com IA. O sistema combina um scraper híbrido (httpx + Playwright + yt-dlp) com um analisador multi‑provedor (Claude 3.5 Sonnet e Gemini 1.5 Flash via google-genai), além de exportação em nuvem de primeira classe via Dropbox e Notion.
Impacto: Transforma pesquisas ad‑hoc em um fluxo repetível e auditável que descobre fontes relevantes, baixa imagens e vídeos, extrai texto completo em .txt, resume e ranqueia achados, e entrega artefatos organizados na nuvem—operando com confiabilidade sob limites de taxa de APIs em cenários com muita mídia.

Python 3.12 FastAPI & Uvicorn httpx Playwright yt-dlp Anthropic (Claude 3.5 Sonnet) Google Gemini 1.5 Flash (google-genai) Brave Search API Dropbox SDK Notion API AsyncIO
View technical details Ver detalhes técnicos
  • Modular Architecture: Clear separation of concerns (ai/, core/, extractors/, integrations/) to orchestrate discovery, scraping, analysis, and export.
  • Arquitetura Modular: Separação clara de responsabilidades (ai/, core/, extractors/, integrations/) para orquestrar descoberta, scraping, análise e exportação.
  • Hybrid Scraper Engine: Static and dynamic extraction via httpx + Playwright, with robust video capture through yt-dlp (YouTube/Vimeo) and image harvesting.
  • Motor de Scraping Híbrido: Extração estática e dinâmica com httpx + Playwright, captura robusta de vídeo via yt-dlp (YouTube/Vimeo) e coleta de imagens.
  • Multi-Model LLM Orchestration: Pluggable analysis layer supporting Claude 3.5 Sonnet and Gemini 1.5 Flash, unified schemas, and graceful fallback on provider errors.
  • Orquestração Multi‑Modelo de LLM: Camada de análise plugável com suporte a Claude 3.5 Sonnet e Gemini 1.5 Flash, esquemas unificados e fallback elegante em erros de provedor.
  • AI-Driven Discovery: Query generation prompts craft targeted searches; Brave API fetches filtered links with built‑in pacing (≈1.2s) to respect rate limits.
  • Descoberta Guiada por IA: Prompts geram consultas direcionadas; Brave API retorna links filtrados com cadenciamento (≈1,2s) para respeitar limites de uso.
  • Deep Content Capture: Full page body saved as .txt, structured metadata extraction, and normalized file naming for reproducibility.
  • Captura Profunda de Conteúdo: Corpo completo da página salvo em .txt, extração de metadados estruturados e nomenclatura normalizada para reprodutibilidade.
  • Ranking & Reporting: AI summarizes sources and ranks them by utility, exporting a comprehensive analysis_report.json per job.
  • Ranking & Relatórios: IA resume as fontes e as ranqueia por utilidade, exportando um analysis_report.json completo por job.
  • Cloud Export Targets: Dropbox as primary destination (bypassing Google Drive SA quotas), with optional Notion/Sheets sync; deterministic folder layout by job_id.
  • Alvos de Exportação em Nuvem: Dropbox como destino principal (contornando cotas do Google Drive SA), com sync opcional para Notion/Sheets; estrutura determinística por job_id.
  • API + Lightweight UI: FastAPI backend with clean endpoints; static HTML/JS dashboard served locally for launching jobs and viewing status.
  • API + UI Leve: Backend em FastAPI com endpoints objetivos; dashboard HTML/JS estático local para iniciar jobs e acompanhar status.
  • Operational Resilience: Structured logging, local backups under data/, and defensive retries to stabilize media-heavy workflows.
  • Resiliência Operacional: Logging estruturado, backups locais em data/ e tentativas com recuo para estabilizar fluxos com muita mídia.
View project on GitHub → Ver projeto no GitHub →

Vibe Coding Auditor

Auditor de Vibe Coding

CLI tool and GitHub Action that audits AI-generated code to ensure security, enforce business rules, and suggest tests before merging. Automatically evaluates pull requests against natural language guidelines to keep your project's "vibe" intact.
Impact: Prevents bad or insecure AI code from reaching production, drastically reducing code review time and maintaining high project standards automatically.

Ferramenta CLI e GitHub Action que audita código gerado por IA para garantir segurança, reforçar regras de negócio e sugerir testes antes do merge. Avalia automaticamente Pull Requests com base em diretrizes escritas em linguagem natural, preservando a “vibe” arquitetural e técnica do projeto.
Impacto: Impede que código inseguro ou de baixa qualidade gerado por IA chegue à produção, reduz drasticamente o tempo de code review e mantém altos padrões de projeto de forma automatizada.

Python 3.11+ LLMS OpenAI API GITHUB ACTIONS PYTEST FEW-SHOT PROMPTING
View technical details Ver detalhes técnicos
  • Git Integration: Automatically fetches and parses diffs from GitHub Pull Requests via the GitHub API, focusing only on the changed code.
  • Integração com Git: Coleta e processa automaticamente os diffs de Pull Requests via API do GitHub, analisando exclusivamente o código alterado.
  • Security Analysis: AI-powered identification of modern application vulnerabilities, including SQL injection, XSS, and credential leaks in the generated code.
  • Análise de Segurança: Identificação automatizada de vulnerabilidades modernas, incluindo SQL Injection, XSS e vazamento de credenciais no código gerado.
  • Style & Rules Engine: Validates new code against custom, natural language configurations (guidelines.md) using few-shot prompting to enforce specific architectural choices or naming conventions.
  • Engine de Estilo & Regras: Valida o novo código com base em configurações customizadas em linguagem natural (guidelines.md), utilizando few-shot prompting para reforçar decisões arquiteturais específicas e convenções de nomenclatura.
  • TDD Generation: Automatically suggests context-aware unit tests using pytest for new functions and logic introduced in the diff.
  • Geração de TDD: Sugere automaticamente testes unitários contextuais em pytest para novas funções e lógicas introduzidas no diff.
  • CI/CD Automation: Natively runs as a GitHub Action on PR events, failing the pipeline and logging issues if violations or security flaws are found.
  • Automação CI/CD: Executa nativamente como GitHub Action em eventos de PR, podendo falhar o pipeline e registrar logs detalhados caso violações ou falhas de segurança sejam detectadas.
View project on GitHub → Ver projeto no GitHub →

Report Insight Generator

Gerador de Insights de Relatórios

CLI tool that transforms Excel and CSV spreadsheets into actionable insights using AI. Automatically identifies trends, anomalies, and generates executive summaries with recommendations — including batch processing for multiple files at once.
Impact: Reduces report analysis time from 30 minutes to 30 seconds.

Ferramenta CLI que transforma planilhas Excel e CSV em insights acionáveis usando IA. Identifica automaticamente tendências, anomalias e gera sumários executivos com recomendações — incluindo processamento em lote de múltiplos arquivos.
Impacto: Reduz o tempo de análise de relatórios de 30 minutos para 30 segundos.

Python 3.12 OpenAI GPT-4 LLMs Pandas Typer + Rich Markdown
View technical details Ver detalhes técnicos
  • Data Ingestion: Reads Excel (.xlsx, .xls) and CSV files with automatic data type detection and multiple sheet support.
  • Ingestão de Dados: Leitura de arquivos Excel (.xlsx, .xls) e CSV com detecção automática de tipos e suporte a múltiplas abas.
  • Statistical Analysis: Pandas-powered detection of numeric trends, categorical patterns, time series, anomalies, and correlations.
  • Análise Estatística: Detecção com Pandas de tendências numéricas, padrões categóricos, séries temporais, anomalias e correlações.
  • AI Insights: GPT-4 generates executive summaries, 3–5 actionable findings, and specific next-step recommendations.
  • Insights com IA: GPT-4 gera sumários executivos, 3–5 achados acionáveis e recomendações de próximos passos.
  • Batch Processing: Analyzes multiple files at once with an auto-generated index report for consolidated review.
  • Processamento em Lote: Analisa múltiplos arquivos de uma vez, gerando um índice consolidado dos relatórios.
  • Output: Structured Markdown reports with Rich terminal preview — optimized for presentations and executive reviews.
  • Output: Relatórios Markdown estruturados com preview no terminal via Rich — otimizados para apresentações e revisões executivas.
View project on GitHub → Ver projeto no GitHub →

Audio Transcription & AI Analysis CLI

CLI para Transcrição de Áudio e Análise com IA

A CLI tool for audio ingestion, transcription, and semantic analysis using AI. Designed as a modular pipeline focused on automation and dataset organization.

Ferramenta CLI para ingestão, transcrição e análise semântica de áudios usando IA. Projetada como um pipeline modular, com foco em automação e organização por dataset.

Python 3.12 OpenAI API LLMs
View technical details Ver detalhes técnicos
  • Three-stage pipeline: ingest, transcribe, analyze.
  • Pipeline em três etapas: ingestão, transcrição e análise.
  • Batch processing support.
  • Processamento em lote de múltiplos arquivos.
  • Dataset-oriented folder structure.
  • Estrutura organizada por dataset.
  • LLM-powered summaries and topic extraction.
  • Geração automática de resumos e tópicos com LLMs.
View project on GitHub → Ver projeto no GitHub →

Prospect Research Assistant

Assistente de pesquisa de prospecção

CLI tool that automates B2B prospect research, generating comprehensive briefings in minutes. Collects data from multiple sources, uses AI to identify company-specific pain points, and creates personalized icebreakers for sales teams.
Impact: Reduces research time from 30 minutes to 2 minutes per prospect.

Ferramenta CLI que automatiza a pesquisa de prospects B2B, gerando briefings completos em minutos. Coleta dados de múltiplas fontes, usa IA para identificar pain points específicos da empresa, e cria ice breakers personalizados para vendedores.
Impacto: Reduz tempo de pesquisa de 30 minutos para 2 minutos por prospect.

Python 3.12 OpenAI API LLMs Typer + Rich Pydantic NewsAPI Jinja2
View technical details Ver detalhes técnicos
  • Data Collection: External APIs (NewsAPI, Clearbit) with web scraping as a fallback.
  • Coleta de Dados: APIs externas (NewsAPI, Clearbit) + web scraping como fallback.
  • AI Analysis: OpenAI GPT-4 identifies pain points and relevant context.
  • Análise com IA: OpenAI GPT-4 identifica pain points e contexto relevante.
  • Briefing Generation: Jinja2 templates produce structured Markdown reports.
  • Geração de Briefing: Templates Jinja2 produzem relatórios Markdown estruturados.
  • Collectors: Independent modules for each data source (news, company data).
  • Collectors: Módulos independentes para cada fonte de dados (notícias, empresa).
  • Analyzers: AI layer with optimized prompts for sales analysis.
  • Analyzers: Camada de IA com prompts otimizados para análise de vendas.
  • Generators: Template system for professional-grade outputs.
  • Generators: Sistema de templates para outputs profissionais.
View project on GitHub → Ver projeto no GitHub →

Institutional Website+Custom CMS for Audiovisual Production Company

Website Institucional+CMS para Produtoras Audio/video

Lightweight web platform with an integrated admin panel powered by Firebase for dynamic portfolio management. Enables Vimeo project uploads, custom thumbnails, category tagging, and award highlights — all within a clean, performance-focused architecture.
Impact: Full autonomy to update the portfolio without relying on a developer, reducing publishing time from hours to minutes.

Plataforma web leve com área administrativa integrada via Firebase para gerenciamento de portfólio em vídeo. Permite upload de trabalhos do Vimeo, thumbnails personalizadas, categorização por tags e destaque de prêmios conquistados — tudo em uma estrutura enxuta e performática.
Impacto: Autonomia total para atualização do portfólio sem depender de desenvolvedor, reduzindo tempo de publicação de horas para minutos.

HTML5 CSS3 JavaScript(Vanilla) Firebase (Auth+Firestore+Storage) Vimeo Embed API
View technical details Ver detalhes técnicos
  • Lean & Performant Architecture: Single-page structure with inline CSS and scripts optimized for fast loading and simplified maintenance.
  • Arquitetura Simples e Performática: Estrutura single-page com CSS e scripts inline otimizados para carregamento rápido e fácil manutenção.
  • Secure Admin Area: Restricted access using Firebase Authentication for secure content management.
  • Admin com Autenticação: Área restrita utilizando Firebase Authentication para controle seguro de acesso.
  • Dynamic Content Management: Metadata storage (tags, categories, awards, thumbnails) in Firestore with real-time front-end rendering.
  • Gerenciamento Dinâmico de Conteúdo: Armazenamento de metadados (tags, categorias, prêmios, thumbnails) no Firestore com renderização dinâmica no front-end.
  • Vimeo Integration: Automated video embedding via Vimeo, allowing rapid portfolio updates without media reprocessing.
  • Integração com Vimeo: Incorporação automatizada de vídeos via embed, permitindo atualização rápida do portfólio sem reprocessamento de mídia.
  • Filtering System: Category-based organization and featured highlights for curated navigation and improved UX.
  • Sistema de Filtros: Organização por categorias e destaques para facilitar navegação e curadoria dos trabalhos.
  • Anti-Spam Protection (Contact Form): Integrated with Formspree for secure message handling without requiring a custom backend.The solution prevents direct endpoint exposure and significantly reduces automated submissions.
  • Proteção Anti-Spam (Formulário de Contato): Integração com Formspree para processamento seguro das mensagens sem necessidade de backend próprio.A solução elimina exposição direta de endpoints e reduz drasticamente envios automatizados.
View project on GitHub → Ver projeto no GitHub →

Selected Work

Fanta 'Power Outage'

ADVERTISING AGENCY: OGILVY
VIDEO PRODUCTION COMPANY: VETOR ZERO

AGÊNCIA: OGILVY
PRODUTORA: VETOR ZERO

Mentos 'Namorados'

ADVERTISING AGENCY: NEOGAMA BBH
VIDEO PRODUCTION COMPANY: REBOLUCION

AGÊNCIA: NEOGAMA BBH
PRODUTORA: REBOLUCION

Ford Focus 'GHOST'

ADVERTISING AGENCY: JWT (VML)
VIDEO PRODUCTION COMPANY: ZERO FILMES

AGÊNCIA: JWT (VML)
PRODUTORA: ZERO FILMES