Archivo de la etiqueta: «datos públicos»

La DINI, los #dinileaks y los datos públicos y personales

dinileaks-correo-habilita-busc-jpg_654x469

Imagen obtenida del diario Correo.

El 30 de marzo pasado las bancadas de la oposición en el Congreso de la República lograron que se aprobara la moción de censura presentada contra la presidente del Consejo de Ministros Ana Jara, del partido oficialista, por «no haber investigado, denunciado y/o sancionado a quienes habrían cometido actos ilegales al interior de la DINI». Pero más allá del contexto político en el que se dio esto, ¿Qué es la DINI y cuáles fueron los actos ilegales en los que incurrió?

La DINI o Dirección Nacional de Inteligencia (del Perú), es el organismo público rector del Sistema de Inteligencia Nacional (SINA). Se encuentra adscrito a la Presidencia del Consejo de Ministros y depende, funcionalmente, del Presidente de la República. Entre sus funciones establecidas, la principal es producir Inteligencia Nacional para el presidente y el Consejo de ministros.

En el 2011, ya en el gobierno del actual presidente Ollanta Humala, hubo denuncias de parte de un exasesor de la Presidencia del Consejo de Ministros, de espionaje, seguimiento y chuponeo por parte de la DINI hacia su persona. La denuncia y posterior investigación no llegaron a nada por falta de pruebas.

En el 2013, en medio de pedidos de investigación a la DINI por el aumento de su partidas presupuestal secreta que en el 2011 fue de S/.9’493.264 y en el 2013 de S/.73’952.800, y que el gobierno negó se usaran para hacer seguimiento a la oposición o con fines electorales, un exministro denunció que la DINI mantiene una unidad de redes sociales que lidera los ataques en Twitter y Facebook a los adversarios políticos del gobierno. En dicha ocasión la comisión de inteligencia del Congreso concluyó que la DINI no estaba siendo utilizada con fines electorales.

Adicionalmente se supo que la DINI gastó casi S/.50 millones en un equipo de interceptación telefónica en 2013. El equipo fue adquirido a la empresa Verint Systems, con sede en Israel, también se pagaron S/.4 millones a Consitrade y Vsense Tecnologies, empresas del rubro de la seguridad en TIC.

El 15 de enero de este año la revista Correo Semanal publica una denuncia sobre seguimiento sistemático a miembros de la oposición por parte de la DINI, esta vez adjuntando fotos de videos y documentos a modo de prueba. Inicialmente la en ese entonces Presidenta del Consejo de Ministros, Ana Jara, negó el seguimiento. Luego, ante una comisión del Congreso especuló que el seguimiento sería hecho por alguna organización criminal y pidió que se ahondara en la investigación. Unos días después la propia Jara anunció el cierre de la DINI por 180 días para su reestructuración.

Pero eso no sería todo, el 19 de febrero un nuevo informe de Correo Semanal revelaba que la DINI armó expedientes de congresistas de la República con información obtenida de diversas entidades públicas (Registros públicos, migraciones, policía, poder judicial e información impositiva y bancaria). El 19 de marzo un informe más da a conocer que la DINI también había armado expedientes de políticos, empresarios, periodistas y ciudadanos varios.

Ese mismo día el Congreso requirió la presencia de la Presidenta del Consejo de Ministros para que explique las nuevas denuncias. La primera ministra Ana Jara se presentó al día siguiente y durante 7 horas respondió las preguntas de los congresistas. Ella pidió que la Fiscalía de la Nación investigue el tema e informó del relevo de los altos cargos de la DINI. Sin embargo la oposición no quedó convencida con las explicaciones de la primera ministra y presentó luego la moción de censura, con los resultados ya conocidos.

Los periodistas a cargo de la investigación pusieron a disposición del público en general una búsqueda en los archivos de datos popularmente llamados Dinileaks, que les fueron proporcionados por fuentes no reveladas, para que cualquiera pueda ver si se le hizo seguimiento o no. La etiqueta #Dinileaks también fue usada por la ciudadanía conectada para comentar al respecto.

La discusión sobre la legalidad o no de los seguimientos hechos por la DINI fue abordada por el abogado Erick Iriarte en el blog LexDigitalis. El opina que las instituciones de inteligencia deben crearse y actuar con el debido respeto de los derechos humanos, la constitución y las leyes vigentes. Al confrontar las acciones de la DINI contra lo que dice la ONU respecto a la recopilación de datos concluye que no se han realizado protegiendo a la población, ni sus derechos, ni los principios de Derechos Humanos.

En cuanto a si las acciones de recopilación de información van de acuerdo a las propias funciones de la DINI y la ley peruana de Datos personales, señala que:

bajo la premisa que las entidades publicas solo pueden realizar lo que explícitamente se indican en sus normativas, no hay bajo premisa alguna la recopilación, acumulación, gestión y/o manipulación de datos personales (puntual o masiva, como ha sido este caso) […] debemos añadir que, si como informo el congresista Victor Garcia Belaunde también se han recopilado datos de historias clínicas, el carácter de dato sensible de dichos datos, esto aumenta la gravedad de la violación de la ley de datos personales, por su protección especial que tienen, dado que estos datos pueden configurar instrumentos de discriminación.

Javier Casas, otro abogado, enfoca el tema desde la óptica de los datos públicos. ¿Por qué sería ilegal para el estado recolectar y examinar datos públicos si algunas ONG lo hacen, por ejemplo en el contexto electoral? porque en ese caso se trata solamente de funcionarios públicos y políticos, y no de personas comunes y corrientes. Esto, según Javier, demuestra el «descontrol y la falta de calidad de la DINI para realizar esta labor». Luego sigue reflexionando sobre la actividad de recolección de información pública.

Ni para el periodismo de investigación ni para quienes producen inteligencia en otros ámbitos hay buenos y malos a priori, más bien es en este espacio donde se pone en evidencia a los sospechosos y luego el sistema de justicia y la policía se encarga de ellos. Pero, por eso mismo, en todos estos casos debe haber controles y rigor. Si de inicio argumentamos que estamos violando la privacidad de las personas por el empleo de esta técnica investigativa, le estamos diciendo adiós al periodismo de investigación del siglo XXI y a la producción de inteligencia eficaz, más aún si se trata del procesamiento de información pública. Ello de ningún modo significa abdicar de la protección del derecho a la privacidad o al honor, sino, más bien, pensar en donde, en qué etapa del proceso, establecer los controles para garantizarlos sin restringir de manera ilegítima el interés público, la defensa nacional o la lucha contra la delincuencia organizada.

Habrá que esperar los resultados de la reestructuración de la DINI para saber si su actividad de recopilación de inteligencia se adecuará al correr de los tiempos y al respeto a los DDHH y la privacidad de las personas.

Datos Abiertos en Lima

Datos abiertosLa semana que termina ha tenido novedades en cuanto al movimiento de datos abiertos u opendata en el Perú. El miercoles 28 de setiembre, en el marco del Día Internacional del derecho de acceso a la información pública, la Municipalidad Provincial de Lima, anunció la incorporación a su sitio web de «una sección dedicada a los Datos Abiertos a través del cual muestra su predisposición a compartir la información en su forma más básica, a promover la participación y colaboración de las redes y comunidades de usuarios.» Y añaden:

La sección de Datos Abiertos constituye un espacio virtual donde las comunidades de usuarios pueden acceder de forma sencilla a los datos que la Municipalidad Metropolitana de Lima ha puesto a disposición. Entre los datos iniciales que se están publicando figura información relacionada a transporte, desarrollo empresarial, defensa civil, sanidad, administración-finanzas, entre otros. Progresivamente iremos incorporando otras temáticas.

No esta demás recordar que el movimiento de datos abiertos es: «una filosofía y práctica que persigue que determinados datos estén disponibles de forma libre a todo el mundo, sin restricciones de copyright, patentes u otros mecanismos de control. Tiene una ética similar a otros movimientos y comunidades abiertos como el código abierto (open source) y el acceso libre (open access).»

La Municipalidad de Lima comparte el contexto en el que ha tomado esta acción, y los benecificios que puede traer a diversos sectores de la población, asimismo algunas de las acciones que consideró ejecutar:

  • – Establecimiento de las políticas, normas y procedimientos para la recolección y publicación de los datos a través del Portal de la Municipalidad Metropolitana de Lima.
  • – Catalogación, recolección y publicación de los datos que son gestionados por las dependencias que conforman la Corporación de la Municipalidad Metropolitana de Lima.
  • – Publicación de los datos disponibles facilitando su accesibilidad, especificando su estructura, vigencia y fuente. Para ello, se tomará en cuenta la normatividad vigente sobre seguridad y privacidad.
  • – Sistematización y publicación de los aportes generados en los actores de la sociedad.

Por el momento los datos liberados son: Directorio de Empresas de Transporte, Directorio de Vehículos (1992-2011), Directorio de Sanciones (vehiculares, 2007-2011), Licencias de Funcionamiento (2006-2010), Certificados de Defensa Civil (2005-2011), Control Nutricional (escolar, 2007-2011), Adquisiciones de Bienes o Servicios (1999-2011), Ejecución Presupuestal de Ingresos (1998-2011) y Ejecución Presupuestal de Gastos (1998-2011). Toda esta data está disponible en formatos csv y xml, y algunos en json, aparte de la respectiva metadata en formato csv.

La gente de Escuelab, quienes participan de la iniciativa, han empezado a experimentar con estos datos dentro de su proyecto Campamento Cívico. «hemos decidido enfocarnos en esta info (el directorio de sanciones vehiculares) para realizar nuestro primer prototipo: #autoslocoslima. #autoslocoslima es un «robot» que denuncia a los coches más infractores a través de @dataraymi.» Y agregan:

El único criterio que se utiliza, es que al masticar los casi 600k registros del dataset, se agrupan las papeletas por placa y luego en un post-procesamiento se filtran sólo las placas que tengan más de 10 faltas graves. De ese procesamiento hemos obtenido un listado de 96 coches que representan un potencial peligro para todos los que transitamos la ciudad.

Estos son los primeros resultados:

dataraymi Se busca Mitsubishi modelo ’93 placa UJ1726 x animal: 12 papeletas! campamentocivico.escuelab.org/archive/?tags=… #opendatape #autoslocoslima
dataraymi Sal del camino de un Mitsubishi modelo ’85 placa UO3597! carga con 12 papeletas graves! campamentocivico.escuelab.org/archive/?tags=… #opendatape #autoslocoslima

Es obvio que la experimentación recién ha empezado hace un par de días, y a medida que se vayan sumando actores tales como programadores (los llamados civic hackers), especialistas en gestión pública, y la sociedad civil en general, y a medida también que la MML vaya aumentando su oferta de datos, las posibilidades y resultados se irán ampliando, con el consiguiente beneficio para la transparencia y el público en general.

Por otra parte, como decía en este post sobre gobierno electrónico en Latinoamérica de hace unos meses, la experiencia de Montevideo es muy interesante. En la sección de datos abiertos de su portal, incluyen una serie de aplicaciones que han sido desarrolladas usando los datos que ellos han publicado, lo cual resulta un muy buen ejemplo a tomar en cuenta. Si quieren ahondar en el asunto ver este otro post donde trato el tema de datos abiertos y gobierno abierto, también en Latinoamérica. El post incluye una charla que tuve con Manuel Aristarán, quien utilizó datos de la ciudad argentina de Bahía Blanca para mostrar a quienes se dirigía el grueso de contratos de proveedores de servicios de la ciudad.

Otras dos experiencias algo diferentes pero similares en espíritu vienen desde España, una de la ciudad de Córdoba, y la otra del Principado de Asturias:

Este post de Sindikos acerca de la experiencia de la ciudad de Nueva York con los datos abiertos y el transporte público es también muy ilustrativa, si entienden algo de inglés no se pierdan el video. Finalmente les dejo con una entrevista a Dave Harte, un inglés experto en todas estas cosas de datos abiertos y demás, hablando sobre, bueno, eso mismo.

Hackathon: Garage Lab en Buenos Aires


Este post lo publiqué originalmente en Información Cívica.

Si usted es un asiduo lector de este sitio y/u otros similares pueda que esté familiarizado con los términos «Gobierno abierto» o «Datos públicos» pero ¿Ha oido usted hablar por casualidad acerca de una Hackathon? Si eso no le suena no se preocupe, acá se va a enterar. Según el concepto de Gobierno Abierto «los temas de gobierno y administración pública deben ser abiertos a todos los niveles posibles en cuanto a transparencia para conseguir una mayor participación ciudadana y una mejor regulación.» Y similarmente la filosofía de los Datos públicos plantea que la data que producen los gobiernos sea tratada como datos abiertos, lo que significa que estén «disponibles de forma libre a todo el mundo, sin restricciones de copyright, patentes u otros mecanismos de control,» una tendencia mundial por cierto.

Pero para explicar «Hackathon» tenemos el problema de que no hay una palabra castellana equivalente, sin embargo traduciendo lo que la Wikipedia dice (no sin antes quejarnos por la falta de traducción de tantos, como este, artículos en la Wikipedia en español) vemos que se trata de un evento en el cual se reunen programadores para hacer programas en forma colaborativa, con un propósito que puede o no ser previamente concertado. Y llegados a este punto la pregunta es ¿cómo confluyen todas estas ideas? Una respuesta la dio la gente de Garage Lab, Provincia de Buenos Aires, Argentina, cuando se plantearon realizar la «Hackathon de Datos Públicos y Gobierno Abierto

En su post de convocatoria explican con más detalle sus objetivos: «Sumar esfuerzos para disponibilizar datos públicos, modelarlos, y visualizarlos.» y «Unir capacidades complementarias entre desarrolladores, expertos en visualización, y profesionales de las ciencias políticas y de la administración pública, con el objetivo de diseñar y resolver problemas de acceso a la información pública.» Y también explican la metodología de trabajo: «La propuesta es armar equipos con estos distintos perfiles y encarar proyectos que, basados en fuentes de datos públicos, puedan mostrar por ejempo las compras y gastos de un municipio o ministerio, analizar la ejecución presupuestaria de una repartición pública, interpretar las votaciones históricas de una cámara legislativa o encontrar patrones de análisis en las audiencias mantenidas por distintos funcionarios.»

Estos equipos de expertos en las áreas de Desarrollo, Modelado y Visualización, por el lado de la programación, y de Politica y Administración Pública, Ciencias Sociales, Humanidades por el lado de las áreas a trabajar, se abocaron durante los dos días de la Hackathon a mejorar el acceso, la transparencia y la gestión de la información pública, enfocándose principalmente en los rubros de: 1) Análisis y visualización de compras públicas municipales 2) Visualización de Votos y alianzas políticas en Cámara de Diputados. 3) Análisis y Visualización de Audiencias y Gestión de Intereses. 4) Geolocalización de Documentos y Visualización de Tópicos (Causa Corte) en la Cuenca Matanza Riachuelo. Además algunos miembros del equipo reunido brindaron charlas sobre los temas de su especialidad. Acá la de Manuel Aristarán sobre compras públicas:

Manuel Aristarán en Hackathon Datos Públicos GarageLab from GarageLab on Vimeo.

Como era de esperarse los resultados fueron muy buenos, sobre todo por la convergencia e interacción productiva de los dos equipos de especialistas, bajo la orientación general de los organizadores. El pasado 5 de noviembre presentaron oficialmente los resultados de la hackaton en el marco del Foro de Gobierno Electrónico, en Buenos Aires, conjuntamente con la gente de Poder Ciudadano. Pero Martín Onetto de Red Users nos contó antes varias cosas del evento de programadores, primero enfocándose en el grupo humano:

La idea de GarageLab, explica Darío Wainer -creador del grupo, junto con Emiliano Kargieman-, es “trabajar en el cruce entre problemas emergentes y tecnologías emergentes” para “lograr que las capacidades de generar conocimiento en Argentina se continúen en capacidades de generar riqueza”.

el “Hackathon”, (es un) neologismo compuesto por las palabras “hack” + “marathon”. “Es ‘hacker’ en el sentido originario del término: no el que comete delitos informáticos sino el que es capaz de desarmar y transformar para resolver una tarea compleja”, aclara el programador Ernesto Mislej. “Posiblemente un intendente lo entienda como robo, pero por eso enfatizamos el hecho de que hablamos de datos ya públicos”, completa Aristarán.

Fueron dos días de compartir saberes, de revivir el “paradigma colaborativo” tan pregonado en el mundo tecnológico (y tan poco practicado en el mundo político). Cuadros, grafos, mapeos, facetados, relaciones y patrones o nodos inferidos y enriquecidos con información contextual, líneas multidireccionales; mezclados con teorías políticas como la rational choice, el neoinstitucionalismo o sobre la burocracia. Todo parece complicado. Sin embargo, el objetivo central siempre es hacer sencillo y accesible el dato público.

Luego Martín transmite lo que los organizadores le explicaron acerca de los resultados de la hackaton propiamente dichos:

(el) joven programador bahiense Manuel Aristarán … presentó los resultados parciales del track 1: “Municipios: herramientas de análisis y visualización del gasto público”. Y planteó de lleno la cuestión de la transparencia en la gestión pública. “Todavía nos queda abierto el problema de crear un buen incentivo para que los gobernantes abran sus datos públicos”.

Aristarán es el creador de GPB, un proyecto de visualización de datos públicos que no depende del municipio de Bahía Blanca. Su intención es que esto se propague. Por eso no esconde sus “trucos” y comparte sus herramientas: “Las aplicaciones que utilicé son Python, Django Project, Postgresql. Y el sistema de extracción de datos, por el que me han escuchado militar tanto, es Scrapy.» Durante el Hackathon, Aristarán socializó su modelo con su colega “Gera” y, entre ambos, lo aplicaron a los municipios de General Pueyrredón y de Morón.

El segundo tema fue: “Geolocalización de Documentos y Trazabilidad / Mapeo del Gasto Público”, vinculado a datos sobre la contaminación del Riachuelo y a la página del organismo creado a partir del fallo “Mendoza” de la Corte Suprema: la Autoridad de la Cuenca Matanza-Riachuelo.

El arquitecto Pío Torroja, coordinador del track, señala: “El prototipo que estamos desarrollando posibilitaría: 1- Un principio de estructuración de la información dispersa y acceso rápido a ella. 2- Múltiples niveles de usuarios (oficiales y organizaciones sociales). 3- Georeferenciación de documentos: un mapa que actúa como un ‘paisaje de documentos’ de la cuenca. 4- Una propuesta de formato para que la futura incorporación de información vaya conformando un sistema integrado”. Cada uno de los puntos responde a requisitos del juez de Quilmes Luis Armella que instruye la causa.

Finalmente concluye con una anécdota sucedida cuando uno de los organizadores tuiteó resultados parciales del Hackathon, y llegara luego una respuesta: “Acá un subsecretario de la provincia de Buenos Aires me dice: ‘esos datos no son oficiales’”, se escuchó en el aula, y de inmediato alguien respondió: “Decile que publique él los datos, entonces”. Ése es el espíritu de un hackathon de datos públicos.

Por supuesto este tipo de iniciativas se dan a nivel global. Como ejemplo tenemos el «International Open Data Hackathon» que se propone reunir a programadores para hacer aplicaciones con datos públicos abiertos como forma de apoyo y estímulo para la adopción de políticas de datos abiertos por parte de los gobiernos locales, regionales y nacionales de todo el mundo. Esta actividad es organizada por el Open Data Day y se llevara a cabo el próximo 4 de diciembre simultáneamente en diversas ciudades del mundo. De hecho cualquiera puede organizarse y plantear la realización de una hackathon en su propia ciudad. Veo pocas ciudades latinoamericanas, solo unas tres de Brasil, y sería interesante que la idea prenda en nuestros países.

La gente de la Oficina de Software Libre de la Universidad de Granada, España, organizó a principos de este año una hackathon, en su caso para «dar a conocer a la comunidad universitaria los diferentes proyectos participantes en el Concurso Universitario de Software Libre así como dar la oportunidad a la comunidad de que participe en los mismos, aprendiendo a la vez diferentes tecnologías de desarrollo en equipo y las propias de cada proyecto.» Lo interesante de esta experiencia es que luego postearon sus tips de cómo organizar una hackathon, aquí algunos de ellos:

– Primero, la difusión. Está claro que cuanta más difusión tenga es mejor, pero lo que es interesante es que venga gente de fuera del círculo habitual
-Los hackathones no son cosa de programadores sólo. En este ha sido una experiencia interesantísima contar con tres traductores […] que han traducido todo lo traducible (blogs, presentaciones, documentación, interfaz) a tres idiomas, y han ayudado además a los participantes a preparar sus programas para que sean multilingües. De la misma forma, si puedes contar con personas casi de cualquier trabajo: arquitectos, de bellas artes, empresariales, incluso biología o psicología, cada cual puede aportar su experiencia al proyecto, desde la dinámica de grupo hasta la documentación.
– Prevé alguna forma de que nadie se quede fuera: cuenta con tres o cuatro voluntarios que vayan a los proyectos donde se haya apuntado menos gente. Hazlo tú mismo si es necesario.
– Para los que lleven cada proyecto, ten claro desde el principio qué quieres hacer (más que qué quieres que hagan). Si no hay tareas claras, una revisión de código, refactorización, documentación, pruebas, instalación y documentación de la misma… hay decenas de tareas que se pueden proponer, y para las cuales no se necesita una cualificación especial
– Una asistencia de unas 5 personas por proyecto es lo ideal; por encima de eso los grupos se hacen demasiado grandes. Prevé espacios para todo el mundo, y para todo el tiempo. Que se vayan el fin de semana a casa está bien, pero es mejor si al menos prevés un espacio común, con conectividad, donde puedan llevarse a cabo una puesta en común.
– Trata de identifrikar (es decir, identificar a los frikis), vale, chiste malo, identificar a los que sean parte de la organización, los que coordinen cada proyecto, y cualquier persona que pueda ayudar en un momento determinado. Una camiseta (negra, cómo si no) es suficiente.
– Todos los proyectos deben tener bien organizadas sus herramientas de colaboración. El sistema de control de fuentes lo tendrán de por sí, pero viene siempre bien una lista de correo, wiki y todo lo demás. Pruébalos con antelación, para que no se encuentren, como en nuestro caso, que no funcionaban.
– No hace falta que te diga que todo lo 2.0 es si no imprescindible, tremendamente útil: planet, lista Twitter, prevé un hashtag para Twitter, tags para todo el resto… que sea fácil localizar todo el material gráfico que se va generando sobre la marcha.

Si alguien nos puede proporcionar información sobre pasadas y futuras hackathones en latinoamérica le agradeceríamos lo deje en los comentarios de este post, nos gustaría mucho poder hacer un calendario de ellas y promover la realización de más de estos eventos en nuestros países.