Bootcamp de programación / Una perspectiva documental y bibliotecológica sobre el big data y el periodismo de datos

En los últimos diez años han proliferado los regis tros de pacientes gracias a la implementación de FCE, los que inicialmente se almacenaban como Microdatos. Pero la incorporación de toda la información dis ponible, en grandes volúmenes y de variados formatos, hizo que, en algunos casos, estos datos se convirtieran en macrodatos. Estos micro o macrodatos se convirtie ron en la fuente principal que alimentan los llamados “Sistema de apoyo a la Decisión Clínica”, SDC o DSS en inglés25. La alerta electrónica (e-alerta) es un sub producto de estos sistemas, las cuales son emisiones de recordatorios con recomendaciones, basadas en guías clínicas y en la situación clínica del paciente, con el fin de apoyar el diagnóstico y las decisiones clínicas del personal de salud.

articulos cientificos de big data

En la actualidad se ha pasado de la transacción a la interacción, con el propósito de obtener el mejor provecho de la información que se genera minuto a minuto[2]. Es importante notar que la manera en que se da la protección a la transferencia de datos y, si es posible, muchas veces al tratamiento que se hace de los mismos, difiere entre un Estado y otro como en el caso de la Unión Europea y los Estados Unidos, que, sin embargo, han accedido a tener un marco regulatorio común para el manejo de los datos (2017, p. 852). No es tema menor que las mediciones cuantitativas no partan de un dato estadístico neutral, pues la tecnología hace posible y calculable la medición de poblaciones para los individuos, es decir que el conocimiento generado a través del big data es parcial, y refleja la geografía y contexto social de las personas que producen dicho conocimiento. Esto significa que es relevante quién decide qué se cuenta como dato y qué no, así como también la manera en que este debe ser interpretado, cómo se mide y qué indicadores se usan.

Big Data Research

Para realizar estudios de IA mediante aprendizaje automático (que incluye el aprendizaje profundo en algunos casos), se requieren de determinados algoritmos, como árboles de decisión, regresión para análisis estadístico y predictivo, redes adversarias generativas, Clustering basado en instancias, bayesianos, redes neuronales, etc. Estos algoritmos se valen de la ciencia de datos en la que se ejecutan diversos cálculos matemáticos, donde la densidad de información es amplia, compleja y variada. Por ejemplo, encontrar moléculas antivirales (Ahuja, Reddy & Marques, 2020) que combatan la COVID-19 e identifiquen millones de anticuerpos para tratamiento de infecciones secundarias (Ciliberto & Cardone, 2020).

articulos cientificos de big data

Incluyendo también el surgimiento de un nuevo perfil profesional, el “Data Scientist” [3], las personas capacitadas en este perfil deben saber del negocio, de las herramientas computacionales y de análisis e interpretación estadística. Tal como se había advertido en la Introducción el autor no intenta dar ninguna traducción literal del término “porque no hay ninguna comúnmente aceptada, y porque tampoco está claro que big data tenga un significado preciso” (p. 30). Más allá de la obviedad literal de la palabra en “datos masivos”, Sosa menciona que hay https://www.adiario.mx/tecnologia/el-bootcamp-de-tripleten-unico-por-su-metodo-de-ensenanza-y-plan-de-carrera/ una diferencia cualitativa en relación “al volumen y tipo de datos provenientes de la interacción con dispositivos interconectados (…) “capaz de producir información y enviarla electrónicamente a otra parte” (p. 31). De nuevo, al igual que Elvis con su come back, Google Flu Trends fue resucitado por la comunidad científica para reparar sus errores y renovar su credibilidad. Este caso es emblemático para Sosa puesto que ilustra la historia de éxitos y fracasos que está entorno al auge del big data y sus constantes innovaciones en técnicas de análisis.

Expertos hablarán sobre la regulación europea de la IA en el AI Business Congress

Cabe señalar que Joyanes expone que el uso del concepto de big data se remonta al año 1984 en el ámbito académico y a 1987 fuera de este (2013, p. 3). La aplicación de nuevos sistemas para la creación, almacenamiento y difusión de la información ha tenido como uno de los factores clave el exponencial desarrollo de la apertura de datos a través de mecanismos técnicos y computacionales. El open data y el big data, así como las redes sociales, han transformado el trabajo en los medios de comunicación en un mundo informativamente globalizado.

  • Para finalizar, y con la mirada puesta en las redes sociales, tratamos algunos de los instrumentos documentales utilizados así como las aplicaciones que los periodistas están empleando, siempre primando el enfoque bibliotecológico y documental.
  • En esta misma línea, se han usado múltiples fuen tes de datos integrados (genómicos, transcriptómicos y clínicos) con el fin de identificar los factores genéticos y moleculares que pueden ser cruciales en el comporta miento del neuroblastoma, el cual es un tumor sólido extracraneal muy común en niños38.
  • Estas directrices apenas se discutieron el año 2019 y es este año 2020 cuando se podrán tener datos derivados de esta experiencia.
  • El Journal aborda las preguntas en torno a este poderoso y creciente campo de la ciencia de datos y facilita los esfuerzos de investigadores, gerentes de negocios, analistas, desarrolladores, científicos de datos, físicos, estadísticos, desarrolladores de infraestructura, académicos y responsables de la formulación de políticas para mejorar las operaciones, la rentabilidad y las comunicaciones dentro de sus negocios e instituciones.
  • Tampoco se puede negar que los Estados a nivel internacional están conscientes de la importancia de la incorporación del uso de las tecnologías para alcanzar determinadas metas, tanto económicas como políticas y sociales.

En segundo lugar, Big Data trae consigo datos “sucios”, con errores potenciales, incompletos o de diferente precisión, la IA puede ser usada para identificar y limpiar estos datos sucios. En tercer lugar, la visualización de los datos, con la IA se puede lograr incluir la captura de capacidades de visualización de conocimiento para facilitar el análisis de datos, un enfoque es crear aplicaciones inteligentes de visualización para determinados tipos de datos. En cuarto lugar, ya que las tecnologías de almacenamiento evolucionan, es cada vez más factible proporcionar a los usuarios, casi en tiempo real, análisis de bases de datos más grandes, lo que acelera las capacidades de toma de decisiones. La inteligencia artificial y el Big Data se articulan para poder lidiar con diferentes problemas relacionados con el análisis de datos masivos, en particular información de la COVID-19. En el presente artículo se muestran algunos proyectos de investigación relacionados con el aprendizaje profundo, el aprendizaje automático, el Big Data y la ciencia de datos, tendientes a dar soluciones plausibles bien en el monitoreo, detección, diagnóstico y tratamiento de las enfermedades asociadas con el virus.

Revista chilena de pediatría

Este caso involucra el uso de técnicas de big data para recabar información de personas sospechosas con la intención de prevenir y sancionar actos terroristas. En este caso, el señor Schrems -ciudadano europeo- hizo el señalamiento de que sus datos estaban siendo tratados en los Estados Unidos a consecuencia de un acuerdo de puerto seguro, pero que bootcamp de programación en realidad tal no existía, por lo cual acude al Tribunal para que cesara el tratamiento de datos por parte del país norteamericano. Entre los resultados de dicho caso, se decidió «suspender la transferencia de datos personales a otros países cuando crean que no cumplen con un nivel adecuado de protección» (Puerto & Sferraazza-Taibi, 2017, p. 223).



Author: MAAA