Connect with us

Ciencia & Ambiente Ciencia & Tecnología

Expertos piden pausar la investigación sobre inteligencia artificial: La humanidad está en riesgo.

Published

on

Expertos piden pausar la investigación sobre inteligencia artificial: La humanidad está en riesgo.

En una carta abierta, miles de personalidades reclamaron suspender por al menos seis meses los experimentos gigantes que «ni sus creadores pueden entender, predecir o controlar».

El vertiginoso avance de la Inteligencia Artificial (IA) asusta incluso a sus propios creadores. Este miércoles Elon Musk, uno de los fundadores de OpenAI, y cientos de expertos del mundo firmaron una petición para suspender por al menos seis meses las investigaciones en tecnologías más potentes que ChatGPT 4 por posibles “grandes riesgos para la humanidad”.

La junta de firmas tiene lugar en el sitio del instituto Future Of Life, donde se exige una “pausa a los experimentos gigantes de IA” hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la «dramática perturbación económica y política (especialmente para la democracia) que causará la IA».

El director de OpenAI, Sam Altman, reconoció en otras oportunidades tener «un poco de miedo» de que su creación se utilice para «desinformación a gran escala o ciberataques«. En los últimos días se viralizaron fotos falsas ultrarealistas del supuesto arresto de Donald Trump, que habían sido creadas con esta tecnología.

Pero Altman no es el único que se mostró preocupado. Otros como Musk, dueño de Twitter y fundador de SpaceX y Tesla, o el historiador y pensador israelí Yuval Noah Hariri han expresado sus temores sobre una IA incontrolable que supere a los humanos.

La carta pública expresa una profunda preocupación por el avance de la IA por fuera de los límites que pueden controlar incluso los propios creadores. «En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable«, afirma el documento.

A su vez, se pregunta: «¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes?¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos».

Para los expertos firmantes, “los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.

Además de Musk, Altman y Harari, hay otras importantes personalidades que firmaron la petición, como el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

La carta completa.

Los sistemas de inteligencia artificial (IA) con inteligencia competitiva humana pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA. Según los Principios de IA de Asilomar ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería ser planificada y gestionada con recursos y cuidados correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, aunque en los últimos meses los laboratorios de IA han estado encerrados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos están comenzando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Deberíamos automatizar todos los trabajos, incluso los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, inteligencia, obsolescencia y reemplazo? ¿Deberíamos arriesgar la pérdida del control de nuestra civilización? Tales decisiones no deben ser delegadas a líderes tecnológicos no elegidos.

Los sistemas de IA poderosos deben desarrollarse solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La declaración reciente de OpenAI sobre la inteligencia artificial general afirma que «en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a capacitar a los sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos». Estamos de acuerdo. Ese momento es ahora.

Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses la capacitación de sistemas de IA más poderosos que GPT-4. Esta pausa debe ser pública y verificable e incluir a todos los actores clave. Si no se puede aplicar rápidamente una pausa de este tipo, los gobiernos deben intervenir e instituir un moratorio.

Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos independientes externos. Estos protocolos deben garantizar que los sistemas que los cumplan sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de IA en general, simplemente un retroceso en la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.

La investigación y el desarrollo de la IA deberían centrarse en hacer que los sistemas de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Al mismo tiempo, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar dramáticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir como mínimo: nuevas autoridades regulatorias capaces y dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes conjuntos de capacidades computacionales; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por daños causados por la IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente a la democracia) que la IA causará.

La humanidad puede disfrutar de un futuro próspero con la IA. Después de haber logrado crear sistemas de IA poderosos, ahora podemos disfrutar de un «verano de la IA» en el que cosechamos las recompensas, diseñamos estos sistemas para el beneficio claro de todos y damos a la sociedad la oportunidad de adaptarse. La sociedad ha pausado otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de la IA, sin apresurarnos sin preparación hacia un otoño.

/Imagen principal: Archivo/

Ciencia & Ambiente Ciencia & Tecnología

La herramienta gratuita e indispensable para evitar engaños

Published

on

La herramienta gratuita e indispensable para evitar engaños

Cada vez son más frecuentes las estafas virtuales. Enterate cómo evitarlas en el mail de Google.

Gmail es uno de los servicios de correo más populares del mundo, con miles de millones de usuarios activos. Esto les da a los estafadores una enorme base de potenciales víctimas a las que dirigirse.

Los estafadores aprovechan la confianza de los usuarios en correos electrónicos para enviar mensajes que parecen legítimos. Muchas personas asumen que un correo recibido es confiable, especialmente si tiene el diseño o el lenguaje de una empresa conocida.

Aparte, enviar correos electrónicos masivos requiere muy poca inversión, especialmente con técnicas de automatización y bots. Esto permite a los ciberdelincuentes lanzar millones de mensajes en minutos, esperando que incluso un pequeño porcentaje de posibles víctimas responda.

gmail.png

Qué es el pishing

El phishing es una técnica de estafa digital en la que los delincuentes intentan engañar a las personas para que proporcionen información confidencial, como contraseñas, números de tarjetas de crédito, datos bancarios o información personal.

Los atacantes fingen ser una organización confiable, como un banco, una red social, un servicio de correo electrónico o una empresa conocida. Incluyen enlaces que llevan a sitios web falsos, diseñados para parecerse a los originales. En estos sitios, las víctimas ingresan su información sin saber que están compartiéndola con los estafadores.

Aunque parezcan auténticos, muchos mensajes de phishing contienen pequeños errores ortográficos o direcciones de correo sospechosas como banc0.com en lugar de banco.com

La herramienta de Gmail para evitar estafas

  • Filtro de spam: Gmail identifica correos sospechosos y los redirige automáticamente a la carpeta de Spam. Esto incluye mensajes que contienen enlaces maliciosos, patrones típicos de estafa o remitentes no confiables.

  • Advertencias de seguridad: Gmail muestra alertas visibles en correos que considera potencialmente peligrosos, como aquellos con intentos de phishing o enlaces a sitios inseguros. Estas advertencias suelen incluir mensajes como «Este correo podría no ser seguro» o «Este mensaje podría ser una suplantación de identidad».

  • Verificación de remitentes: para ciertos dominios, Gmail verifica si el correo fue enviado por un servidor legítimo utilizando tecnologías como DMARC, DKIM y SPF. Si no pasa estas verificaciones, el mensaje podría marcarse como no confiable.

  • Protección contra enlaces maliciosos: Gmail analiza los enlaces incluidos en los correos para detectar si redirigen a sitios peligrosos. Si un enlace es identificado como malicioso, Gmail bloquea el acceso o muestra una advertencia al usuario antes de que haga clic.

  • Bloqueo de archivos adjuntos sospechosos: Gmail evita que los usuarios reciban correos con archivos adjuntos peligrosos, como ejecutables (.exe) que puedan contener malware.

  • Inteligencia Artificial: Gmail utiliza aprendizaje automático y algoritmos avanzados para identificar patrones de comportamiento asociados con correos fraudulentos o no deseados, mejorando continuamente su capacidad para detectar amenazas.

Ambito

Continue Reading

Ciencia & Tecnología

Un helicóptero de reconocimiento de la NASA descubrió restos de una nave espacial en Marte

Published

on

Un helicóptero de reconocimiento de la NASA descubrió restos de una nave espacial en Marte

A pesar de las especulaciones se comprobó que eran de una nave de origen terrestre.

El helicóptero de reconocimiento de la Administración Nacional de Aeronáutica y el Espacio (NASA), llamado Ingenuity, descubrió restos de una nave espacial en Marte. La nave estaba esparcida por la tierra roja. 

Las imágenes del hallazgo de viralizaron en redes sociales, con teorías sobre la nave encontrada. A pesar del debate sobre la existencia de tecnología avanzada en el planeta rojo o de extraterrestres, más tarde confirmaron que el origen de los restos era terrestre.

La administración tiene el plan es recoger muestras de rocas y suelo para analizar la composición del material y entender cómo llegó la nave a la superficie, de esta manera mejorar en futuras misiones.

La NASA bajo la misión de explorar Marte, diseño dos vehículos para desplazarse por el planeta y capturas diversas imágenes además de datos para futuras investigaciones. Las maquinas son el rover Perseverance y el helicóptero Ingenuity.

/Filo.news

Continue Reading

San JuanEducaciónCiencia & Tecnología

“Llegar a la Facultad” será posible para estudiantes de Sociales

Published

on

“Llegar a la Facultad” será posible para estudiantes de Sociales

En la Facultad de Ciencias Sociales se implementó un
proyecto denominado “Llegar a la Facultad” que tiene como objetivo facilitar el
acceso al transporte público a estudiantes avanzados/as a fin de que puedan
sostener de manera regular el cursado de sus carreras y lograr el objetivo
final que es el egreso. La inscripción para interesados/as en el incentivo,
cierra el próximo 13 de noviembre.

El proyecto que se lleva a cabo en conjunto entre la FACSO y
los estudiantes de Trabajo Social: Ignacio Galán (coordinador), Micaela
Moreyra, Martina Ponce y Lucas Tejada (equipo evaluador), consiste en el
otorgamiento de becas de apoyo (incentivo dinerario) a estudiantes con
dificultades económicas que estén cursando los últimos años de sus carreras.
Con el objetivo de mantener una asistencia regular, la beca está destinada
exclusivamente a solventar el gasto mensual de transporte público.

La beca está dirigida a los estudiantes universitarios de la
Facultad de Ciencias Sociales (FACSO), que estén cursando 3°, 4° o 5° año de su
carrera, que asistan a la universidad al menos 4 días a la semana, que cursen
prácticas pre-profesionales (no es excluyente), que toman 2 o más colectivos
por día y que enfrentan barreras socioeconómicas para acceder al boleto del
transporte público.

Para determinar a las personas beneficiaras, el equipo del
Proyecto viene trabajando en el relevamiento de estudiantes con dificultades
económicas, de manera coordinada con los departamentos académicos, delegados y
delegadas de curso y alumnos y alumnas guías. Luego, un equipo evaluador
analizará las situaciones de vulnerabilidades para determinar el listado de
quienes están en condiciones de acceder a la beca. Una vez realizada la
selección, la beca se hará efectiva a través de una transferencia bancaria al
beneficiario/a, a fin de que pueda recargar la tarjeta SUBE. El proyecto estará
vigente durante los meses de cursado activo (septiembre a noviembre de 2024 y
de abril a junio de 2025).

Al respecto de este beneficio Ignacio Galán, coordinador del
Proyecto “Llegar a la Facultad” manifestó que “esta iniciativa surge a partir
de la conformación de un grupo de estudiantes de Trabajo Social, denominado FAUAT
NETA, que empezamos a realizar acercamientos a las aulas y comenzamos a
percibir una importante deserción de compañeros/as, por lo que se decidió
generar un proyecto planteando estas problemáticas, en el cual obtuvimos el
acompañamiento y abrazo por parte de la Facultad de Ciencias Sociales para que
se lleve adelante el proyecto”.

Personas interesadas pueden inscribirse en el siguiente link


UNSJ/

Continue Reading

Continue Reading