Blog

¿Cómo organizar un evento de tecnología?

¿Cómo organizar un evento tech? Performance, Accessibility, Content EvaluationAutor: Shirley SosaFecha: 28/11/2025 Overview Más de 4.500 mujeres conectadas en 12 eventos con 108 speakers en 7 países de Latinoamérica. Ese fue el resultado de Camino por Latam 2025, una iniciativa regional nacida para conmemorar el Día Internacional de la Mujer (IWD), iniciativa de Google Women TechMakers . Lo que comenzó como una idea de Karol Catacora para unir fuerzas entre embajadoras Women TechMakers (WTM), evolucionó hasta convertirse en un tour de conocimiento tecnológico  que viajó por Bolivia, Colombia, Perú, Ecuador, Paraguay, Brasil y Venezuela. 1. ¿Qué es lo más importante al iniciar un evento tech? Antes de cualquier planificación, la clave es definir la audiencia y el “para qué”. Este año nos planteamos un objetivo ambicioso: llegar a perfiles más diversos. Queríamos llevar la tecnología a donde no llega. 2. ¿Cómo planificar un evento regional? Nuestra estructura organizativa se triplicó, pasando de 6 a 19 embajadoras. Esto nos obligó a cambiar el mindset: dejar de operar como un grupo de amigas y empezar a funcionar como una organización distribuida. Diseñamos una planificación en dos capas: Capa 1: Gobernanza y Soporte Transversal Se definió un equipo principal de soporte transversal a cargo de diferentes procesos clave, desde la planificación hasta la estrategia de comunicaciones conformado por una líder de cada ciudad (como mínimo). Capa 2: Ejecución Local Cada líder del equipo principal, junto con las demás embajadoras de su ciudad o país, organizó de forma local realizaron las gestiones específicas que su evento requería. En ese sentido, cada país tuvo libertad para adaptar el formato como lo decidieran. En este punto, actué como puente estratégico (apoyando especialmente a Brasil y Venezuela). 3. El Reto Digital: Centralizar 7 países en una Web Uno de los mayores desafíos de UX fue la Arquitectura de la Información. ¿Cómo mostrar 12 agendas distintas sin confundir al usuario? La especialista web fue Viviana López , quien lideró el proceso con el apoyo de las compañeras expertas en WordPress. Su desafío no fue solo código, sino diseño de experiencia: crear una navegación intuitiva donde usuarios de 7 países diferentes dispongan de la información. Centralizar todo en una sola plataforma web reforzó la identidad de “Tour Regional”. Fuente: eventos.org 4. ¿Cómo comunicarse con un equipo multicultural? La clave del trabajo remoto no es reunirse mucho, sino reunirse bien. Establecimos una “Hora Global” (Lunes 8:00 PM GMT-5), un horario que funcionaba para todos los husos horarios, llevar a cabo las coordinaciones sin caer en “reunionitis”.  Nuestro Tech Stack de organización fue simple pero efectivo: Sincronización: Google Meet para la “Hora Dorada”. Coordinación Rápida: WhatsApp. Documentación: Google Docs para actas y herramientas de AI para generar resúmenes automáticos y democratizar el acceso a la información. 5. ¿Cómo obtener sponsors sin presupuesto inicial? Conseguir financiación para 12 eventos es complejo. En lugar de enviar propuestas de texto plano, apliqué principios de Data Storytelling. Diseñé una infografía visualizando el impacto del año anterior (alcance, cobertura y métricas de conversión) y la acompañé de una presentación con proyecciones claras. No solo pedíamos dinero; mostrábamos el Retorno de Inversión Social (SROI). Esta estrategia, sumada a la gestión personalizada de cada embajadora, nos permitió cerrar con 3 sponsors globales, incluyendo becas educativas de aliados como Código Facilito. 6. Gestión de Crisis y “Stakeholders” difíciles En eventos en vivo, cualquier inconveniente puede suceder, lo más importante es mapearlo como posible riesgo y tener un plan de acción para activar dado el caso. Tuvimos dos momentos críticos que pusieron a prueba nuestra capacidad de resolución de problemas y resiliencia. Fallo Técnico: En un evento híbrido, el encargado del backstage falló a último minuto. Como parte del equipo de organización, tuve que asumir el control de StreamYard en tiempo real. La audiencia nunca lo notó. La lección de UX aquí es clara: el usuario final debe disfrutar una experiencia fluida, sin importar el caos tras bambalinas. Gestión de Expectativas: En otro caso, un retraso en la agenda irritó a una ponente importante. La solución fue gestión diplomática inmediata: acelerar el evento con decisiones estratégicas en vivo y, posteriormente, una disculpa formal para proteger la relación a largo plazo. 7. Profesionalizando la pasión: El siguiente nivel Esta experiencia me enseñó que la intuición es buena, pero la metodología es escalable. Para asegurar que las futuras ediciones y proyectos sean aún más eficientes, decidí formalizar estos aprendizajes. Recientemente completé la Certificación Profesional de Google Project Management y el curso PM4R Agile (Project Management for Results) del BID. Mi objetivo es aplicar estos estándares internacionales para evolucionar nuestra forma de trabajo: pasar de la “coordinación voluntaria” a la gestión ágil de proyectos con impacto social. Aprendizajes claves: Organizar Camino por Latam me enseñó que la tecnología es importante, pero la empatía mueve proyectos. Anticipación Financiera: Enero es muy tarde. La gestión de sponsors debe iniciar en octubre/noviembre, cuando las empresas cierran presupuestos anuales. Gestión de Riesgos: Tener planes B, C y D (para retrasos o ausencias) no es pesimismo, es profesionalismo. Documentación es Poder: Un buen repositorio no solo alivia la carga actual, sino que deja un legado para que las futuras líderes no empiecen de cero. El equipo detrás del logro Nada de esto hubiera sido posible sin la energía de las 19 líderes que impulsaron la región. Un agradecimiento especial al equipo técnico y a mis compañeras embajadoras: Conclusión: Impacto con responsabilidad En mi experiencia trabajando en proyectos con el BID (Banco Interamericano de Desarrollo) y liderando iniciativas sociales, he aprendido que cada decisión impacta vidas reales. Al organizar este evento, no solo gestionamos una agenda; representamos una marca global como Google y, más importante aún, somos responsables de la continuidad de un programa que abre puertas a miles de mujeres. Seguir los guidelines y cuidar el presupuesto no es burocracia; es la ética necesaria para asegurar que este camino siga abierto para las que vienen detrás.

¿Cómo organizar un evento de tecnología? Read More »

IDB Website Audit Report

IDB Website Audit Report Performance, Accessibility, Content EvaluationAuthor: Shirley SosaDate: 08/10/2025 Overview This report presents a comprehensive audit of the IDB website, aimed at assessing its current usability, accessibility, and performance. The analysis seeks to identify content, design, and structural opportunities to enhance the user experience and ensure alignment with the IDB’s corporate communication and branding standards. The audit follows a user-centered and data-driven approach, combining heuristic evaluation, accessibility testing, and web analytics to identify usability issues and content inconsistencies. Based on the findings, an effort–impact prioritization matrix was developed to outline actionable recommendations that support continuous improvement of the IDB web ecosystem, reinforcing both institutional coherence and audience engagement. Design Process The design process began with an empathy and current-state analysis to understand user needs and navigation behaviors, followed by the identification of key usability and accessibility findings through heuristic evaluation. Based on these insights, an effort–impact prioritization matrix was developed to define actionable recommendations for improving performance, content structure, and alignment with the IDB’s corporate communication and branding standards. 1. Empathy Analysis Identify user needs and improve usability, accessibility, and website performance. 2. Findings & Insights Summarize usability issues, content inconsistencies, and performance opportunities. 3. Recommendations & Prioritization Propose actionable improvements using an effort-impact matrix to guide implementation. 1. Empathy Analysis Identify user needs and improve usability, accessibility, and website performance. Market research To understand the end-user’s context, the ‘Digital 2024’ report from We Are Social was analyzed. This research provides context on the digital behavior, mobile dominance, and connectivity reality of the target audience in the region. The Audience’s Main Channel is Mobile, Not Desktop. 96.5% of users access the web through a mobile device. This makes mobile the dominant—and for many, the only—digital communication channel. Slow Connectivity Acts as a Filter of Exclusion. Average connection speeds in key Latin American markets are significantly lower than in other regions, creating a very different “connectivity reality” for users. There is a Risk of Internal “Connectivity Bias”. The website experience is often tested from offices with high-speed, fixed internet connections. This does not represent the reality for most external users.*Source: We are Social Report 2024 Performance Evaluation This performance evaluation measures the technical efficiency and user experience of the IDB website. The analysis focuses on loading speed and Core Web Vitals to identify optimization opportunities and ensure an inclusive experience. *Source: Google PageSpeed Insights Tool | Detailed Mobile Performance Analysis | Detailed Desktop Performance Analysis Performance Analysis: Key Findings 1. The mobile experience is critically slow and fails essential loading metrics. The website fails the Core Web Vitals assessment on mobile devices. The main content (LCP) takes 15.6 seconds to load on mobile, which is 6.5 times slower than the 2.4 seconds on desktop. The First Contentful Paint (FCP) on mobile is 5.8 seconds, meaning users see a blank page for too long. The overall mobile performance score is 47 out of 100. 2. The main cause of the poor performance is the page’s excessive size, especially due to unoptimized images. The total page size on the desktop test was 4,865 KiB, which is considered an “enormous network payload”. PageSpeed Insights estimates that optimizing images could save up to 2,778 KiB on desktop and 1,044 KiB on mobile. Reducing unused JavaScript could save an additional 441 KiB on both versions. The overall mobile performance score is 47 out of 100. 3. Basic accessibility and SEO errors affect inclusion and visibility. The report finds that “Image elements do not have [alt] attributes,” which makes content inaccessible to screen reader users. The document “does not have a meta description,” which affects how the page appears in Google search results. The audit also found “Links do not have descriptive text,” which creates confusion for users and search engines. Although the automated Accessibility score is high at 95 , the report warns that manual testing is encouraged to find all issues. Accessibility Evaluation This evaluation measures the IDB website’s compliance with accessibility standards to ensure an inclusive experience. The analysis combines automated and specialized tools to identify barriers that affect users with disabilities. *Source: WAVE Accesibility Tool Accessibility Analysis: Key Findings 1. 5 critical errors were found that create direct barriers to content. These 5 errors represent serious accessibility issues that fail to meet WCAG (Web Content Accessibility Guidelines). They can prevent users with disabilities, such as those who use screen readers, from accessing information on the site. 2. 126 contrast errors make the content difficult to read for many users. This high number of contrast errors indicates a systemic issue with the website’s color palette, where text is not clearly visible against its background. This impacts not only users with visual impairments but anyone reading the site in bright light, weakening the clarity of the Bank’s communication. 3. Automated tools provide an incomplete view of accessibility. The PageSpeed Insights report showed a high accessibility score of 95. However, the specialized WAVE tool identified 5 critical errors and 126 contrast errors that the initial report did not capture. This shows the need for a more in-depth accessibility analysis. User Experience (UX) and Usability Analysis A heuristic evaluation was conducted to identify usability and design issues that affect the user experience on the IDB site. The goal of this analysis is to find opportunities to make the web more intuitive and align it with the institution’s corporate communication standards. *Source: Author User Experience (UX) and Usability Analysis: Key Findings The site consistently uses breadcrumbs (e.g., Home > Projects > Detail) at the top of internal pages, always showing the user’s current location. This provides clear orientation, reduces the feeling of being lost, and allows for easy navigation to higher-level pages with a single click, giving the user more control and confidence. The content’s terminology is rated as “difficult.” This creates a comprehension barrier for a diverse audience that is not limited to specialists, such as students and journalists. Symbols and images are used without a logical connection to the text (e.g., a “star”

IDB Website Audit Report Read More »