Análisis documental sobre el tema del Big Data y su impacto en los derechos humanos

Mientras las encuestas y datos administrativos son diseñados para propósitos estadísticos, el big data opera en muchas ocasiones en base a datos que fueron recogidos para otros propósitos. Por eso, el big data más bien parece una forma de “escucha” inductiva más que un levantamiento de datos tradicional. Ahora bien, para llevar a cabo esta tarea es necesario contar con la participación de investigadores y analistas que den sentido a la información a partir de teorías, sin perjuicio de que se puedan usar algoritmos que busquen patrones en la información. La propiedad de los datos, por otro lado, no es solo de los organismos Un curso de ciencia de datos con el que podrás enfrentarte al futuro gubernamentales o de quién diseña el instrumento de medición, sino que se encuentra dispersa en el amplio espectro de organizaciones que registran información de usuarios. Dentro de los documentos más relevantes para hacer frente a esta situación de vulneración de los derechos humanos por el uso de técnicas de big data más recientes, se encuentran las Directrices éticas para una inteligencia artificial (IA) fiable, estudio de los expertos que señala que la IA debe ser lícita, ética y robusta. Estas directrices apenas se discutieron el año 2019 y es este año 2020 cuando se podrán tener datos derivados de esta experiencia.

articulos cientificos de big data

Es claro que el tema ha tomado un carácter de moda mundial y que se ha dejado de asociar solo a la característica de gran tamaño. Se ven también posibilidades de explorar la aplicación de Big Data a nuevos dominios de datos, ya que actualmente se han concentrado en social media, medicina, bioinformática y seguridad, principalmente. Hadoop es una librería de Apache definida como un framework que permite hacer procesamiento de datos distribuido sobre volúmenes de datos de considerable tamaño sobre clúster.

Big Data y Data Science: Definiciones

Por lo tanto, es la combinación actual entre la capacidad de almacenar y procesar datos a escala masiva la que ha comenzado a revelar estructuras latentes en las actividades humanas que éstos reflejan. Dicho de otro modo, el big data está formado por conjuntos de datos de mayor tamaño y más complejos, especialmente procedentes de nuevas fuentes de datos. Estos conjuntos de datos son tan voluminosos que el software de procesamiento de datos convencional sencillamente no puede gestionarlos.

articulos cientificos de big data

Para proteger la privacidad del paciente, quienes ejecutan el código son un grupo especializado, y luego una vez procesado devuelven los resultados a los investigadores. Este estudio es de especial interés porque permite realizar monitoreos epidemiológicos, caracterizando aquella población que se enferma, pero no ingresa a un hospital, o de aquellos que nunca muestran síntomas. Bajo estas circunstancias, es muy difícil rastrear cómo se propaga la enfermedad y cuántas personas realmente mata. Así, con la investigación empleando IA, se logra obtener información predictiva https://futuroelectrico.com/el-bootcamp-de-programacion/ que ayuda a las autoridades sanitarias a tomar cartas sobre el asunto. Por ejemplo, mediante un modelo de ramificación para estimar cuántas personas han sido infectadas, se analiza ADN viral extraído de cada paciente conocido, luego, el modelo utiliza la tasa de mutación para interpolar a cuántas otras personas pasaron el virus en el camino (Li & Ayscue, 2020). Otro tipo de investigación de IA utilizando aprendizaje profundo es mediante el uso del lenguaje natural, que permite crear nuevos medicamentos a partir de la búsqueda de compuestos existentes (Freedman, 2019).

El Nº6 de Big Data Magazine en papel ¡ya está en la calle!

La ventaja de emplear el aprendizaje automático frente a otras técnicas estándar que duran años es que el proceso de identificación puede realizarse en cuestión semanas, con una reducción de costos considerable, sumado a una probabilidad muy alta de éxito. Por ejemplo, Smith y Smith (2020, 2) afirman que, el diseño futuro de fármacos antivirales SARS-CoV-2, ya está a cargo de un equipo europeo que utiliza el supercomputador de IBM equipado con el sistema AI SUMMIT para ser utilizado en tratamientos por COVID-19. Con base en la dinámica comportamental del COVID-19, se requieren soluciones prontas para el monitoreo, detección y diagnóstico de las enfermedades generadas por su causa (Law, Leung & Xu, 2020), la IA plantea diversas opciones de hardware y software encaminadas para tal fin (Mei et al., 2020). Bajo este panorama, ha venido tomando fuerza el desarrollo de software de código abierto, donde la inteligencia colectiva es el engranaje principal para obtener un programa de altas prestaciones, multipropósito en la mayoría de los casos.

Comments are closed.