fbpx
Conéctate con nosotros

Ciencia & Ambiente Ciencia & Tecnología

India tiene la intención de comenzar a enviar turistas al espacio para 2030.

Publicado

En

La Organización de Investigación Espacial India (ISRO) tiene la intención de lanzar vuelos turísticos espaciales para 2030. Según el jefe de la agencia espacial india, Sridhara Paniker Somnath , ISRO ya está trabajando en un módulo turístico, según informó TAAS .

“Actualmente, se está trabajando en el propio módulo de turismo espacial de la India, que será seguro y reutilizable“, dijo Somnath.

“Es probable que el precio del boleto sea de alrededor de 60 millones de rupias (alrededor de $700.000 dólares). Las personas que realicen este viaje también podrán llamarse astronautas“, agregó Somnath . En su opinión, estos son precios competitivos.

El jefe de ISRO, sin embargo, no especificó la altitud a la que se planea elevar a los turistas y cuánto tiempo pasarán en el espacio exterior.

Según funcionarios de ISRO, el programa fortalecerá la posición de India en el mercado global de servicios espaciales.

@TVBRICS

/ Imagen principal: © TV BRICS / istockphoto.com

Ciencia & Ambiente Ciencia & Tecnología

Italia es el primer país occidental en bloquear el ChatGPT por no respetar la legislación sobre datos personales.

Publicado

En

La medida fue dispuesta porque no se respetó la legislación sobre datos personales y no tenían un sistema de verificación de la edad de los usuarios. Advierten sobre posibles fraudes y otros delitos cibernéticos.

Italia bloqueó este viernes al robot conversacional ChatGPT por no respetar la legislación sobre datos personales y carecer de un sistema de verificación de edad de los usuarios menores, informaron las autoridades locales.

Esta decisión, que tiene “efecto inmediato”, supone “la limitación provisional del tratamiento de los datos de usuarios italianos por OpenAI”, la empresa estadounidense creadora de ChatGPT, precisó en un comunicado la autoridad de protección de datos personales de Italia.

La medida fue tomada luego de que el ChatGPT sufriera “el 20 de marzo una pérdida de datos (data Breach) sobre las conversaciones de los usuarios y las informaciones relativas al pago de los abonados al servicio de pago”, consignó la agencia de noticias AFP.

En tanto, la agencia de policía europea Europol, advirtió el lunes que “delincuentes estaban dispuestos a aprovechar la inteligencia artificial como el robot conversacional ChatGPT para cometer fraudes y otros delitos cibernéticos”.

El órgano de vigilancia italiano cuestionó “la falta de una nota informativa para los usuarios cuyos datos son recogidos por OpenAI, pero sobre todo la ausencia de una base jurídica que justifique la recogida y conservación en masa de los datos personales, con el fin de entrenar los algoritmos que hacen funcionar la plataforma”.

Asimismo, la autoridad enfatizó en que la ausencia de cualquier filtro para verificar la edad de los usuarios “expone a los menores a respuestas absolutamente no conformes con su nivel de desarrollo”.

En ese marco, se solicitó que la empresa OpenAI, que lanzó en noviembre pasado el ChatGPT, comunique “en un plazo de 20 días las medidas adoptadas” para remediar esta situación, “so pena de una sanción de hasta 20 millones de euros (21,75 millones de dólares) o hasta 4% del volumen de negocios mundial anual”.

La agencia de protección de datos de Italia prohibió también a principios de febrero a la empresa de inteligencia artificial Replika de utilizar los datos personales de usuarios italianos.

Algunos usuarios se habían quejado de recibir mensajes e imágenes “cercanos al acoso sexual”, precisó la AFP.

En este contexto, la Unión Europea está preparando un proyecto de ley para regular la inteligencia artificial, que se prevé para finales de este año o principios de 2024.

/Imagen principal: Archivo/

Continuar leyendo

Ciencia & Ambiente Ciencia & Tecnología

Salud realizó jornadas de sensibilización sobre la nueva aplicación de rondas y agendas.

Publicado

En

Los referentes provinciales de agentes sanitarios Silvana Vidable y Daniel Balmaceda planificaron y organizaron en conjunto con las cinco zonas sanitarias una serie de jornadas de sensibilización sobre la nueva herramienta para ronda sanitaria, junto a la unificación de los criterios del registro en Historia Clínica Electrónica (HCE), en las correspondientes agendas referidas a sus actividades.

Ambas herramientas son producto del trabajo articulado de la División de Atención Primaria de la Salud (APS), encabezada por la Dra. Gabriela Gutiérrez, e Informática del Ministerio de Salud Pública, a cargo de Jonathan Recio, en el que participaron los referentes provinciales, departamentales y personal informático.

La app permitirá obtener información de forma accesible para los equipos locales y las autoridades provinciales, lo que redundará en la implementación de políticas sanitarias como estrategias de resolución a las problemáticas identificadas en las comunidades del Gran San Juan.

Las jornadas se llevaron adelante el 10, 17, 24 y 27 de febrero y el 13,17 y de 22 de marzo, con el acompañamiento de autoridades ministeriales y personal de las respectivas divisiones.

La prueba piloto para el uso de la app se realizó durante enero y febrero del corriente año, dando inicio de forma oficial el 1 de marzo.

@sisanjuan

/Imagen principal:©fotosisanjuan/

Continuar leyendo

Ciencia & Ambiente Ciencia & Tecnología

Expertos piden pausar la investigación sobre inteligencia artificial: La humanidad está en riesgo.

Publicado

En

En una carta abierta, miles de personalidades reclamaron suspender por al menos seis meses los experimentos gigantes que “ni sus creadores pueden entender, predecir o controlar”.

El vertiginoso avance de la Inteligencia Artificial (IA) asusta incluso a sus propios creadores. Este miércoles Elon Musk, uno de los fundadores de OpenAI, y cientos de expertos del mundo firmaron una petición para suspender por al menos seis meses las investigaciones en tecnologías más potentes que ChatGPT 4 por posibles “grandes riesgos para la humanidad”.

La junta de firmas tiene lugar en el sitio del instituto Future Of Life, donde se exige una “pausa a los experimentos gigantes de IA” hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

El director de OpenAI, Sam Altman, reconoció en otras oportunidades tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques“. En los últimos días se viralizaron fotos falsas ultrarealistas del supuesto arresto de Donald Trump, que habían sido creadas con esta tecnología.

Pero Altman no es el único que se mostró preocupado. Otros como Musk, dueño de Twitter y fundador de SpaceX y Tesla, o el historiador y pensador israelí Yuval Noah Hariri han expresado sus temores sobre una IA incontrolable que supere a los humanos.

La carta pública expresa una profunda preocupación por el avance de la IA por fuera de los límites que pueden controlar incluso los propios creadores. “En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable“, afirma el documento.

A su vez, se pregunta: “¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes?¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”.

Para los expertos firmantes, “los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.

Además de Musk, Altman y Harari, hay otras importantes personalidades que firmaron la petición, como el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

La carta completa.

Los sistemas de inteligencia artificial (IA) con inteligencia competitiva humana pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA. Según los Principios de IA de Asilomar ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería ser planificada y gestionada con recursos y cuidados correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, aunque en los últimos meses los laboratorios de IA han estado encerrados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos están comenzando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Deberíamos automatizar todos los trabajos, incluso los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, inteligencia, obsolescencia y reemplazo? ¿Deberíamos arriesgar la pérdida del control de nuestra civilización? Tales decisiones no deben ser delegadas a líderes tecnológicos no elegidos.

Los sistemas de IA poderosos deben desarrollarse solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La declaración reciente de OpenAI sobre la inteligencia artificial general afirma que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a capacitar a los sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos”. Estamos de acuerdo. Ese momento es ahora.

Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses la capacitación de sistemas de IA más poderosos que GPT-4. Esta pausa debe ser pública y verificable e incluir a todos los actores clave. Si no se puede aplicar rápidamente una pausa de este tipo, los gobiernos deben intervenir e instituir un moratorio.

Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos independientes externos. Estos protocolos deben garantizar que los sistemas que los cumplan sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de IA en general, simplemente un retroceso en la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.

La investigación y el desarrollo de la IA deberían centrarse en hacer que los sistemas de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Al mismo tiempo, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar dramáticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir como mínimo: nuevas autoridades regulatorias capaces y dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes conjuntos de capacidades computacionales; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por daños causados por la IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente a la democracia) que la IA causará.

La humanidad puede disfrutar de un futuro próspero con la IA. Después de haber logrado crear sistemas de IA poderosos, ahora podemos disfrutar de un “verano de la IA” en el que cosechamos las recompensas, diseñamos estos sistemas para el beneficio claro de todos y damos a la sociedad la oportunidad de adaptarse. La sociedad ha pausado otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de la IA, sin apresurarnos sin preparación hacia un otoño.

/Imagen principal: Archivo/

Continuar leyendo

Continuar leyendo