Tecnología

EEUU comienza a estudiar posibles normas para regular aplicaciones de IA como ChatGPT


FOTO DE ARCHIVO. El logo de ChatGPT se ve en esta ilustración tomada el 3 de febrero de 2023. REUTERS/Dado Ruvic/Ilustración

 

MSFT
-2,27%

Añadir/Eliminar de la cartera

Añadir a mi lista de seguimiento

Añadir posición

Posición añadida con éxito a:

Introduzca un nombre para su cartera de posiciones

Tipo:

Compra
Venta

Fecha:

 

Cantidad:

Precio

Valor del punto:


Apalancamiento:

1:1
1:10
1:25
1:50
1:100
1:200
1:400
1:500
1:1000

Comisión:


 

Crear una nueva lista de seguimiento
Crear

Crear nueva cartera de posiciones
Añadir
Crear

+ Añadir otra posición
Cerrar

Por David Shepardson y Diane Bartz

WASHINGTON, 11 abr (Reuters) — El Gobierno de Biden anunció el martes que está recabando comentarios públicos sobre posibles medidas de supervisión de los sistemas de inteligencia artificial (IA), ya que se plantean interrogantes sobre su impacto en la seguridad nacional y la educación.

ChatGPT, un programa de inteligencia artificial que recientemente acaparó la atención mediática por su capacidad para redactar respuestas rápidas a una amplia gama de consultas, ha atraído especialmente la atención de los parlamentarios estadounidenses, ya que se ha convertido en la aplicación de consumo de más rápido crecimiento de la historia, con más de 100 millones de usuarios activos mensuales.

La Administración Nacional de Telecomunicaciones e Información (NTIA), organismo del Departamento de Comercio que asesora a la Casa Blanca, quiere hacer aportaciones, ya que existe un «creciente interés regulador» en un «mecanismo de responsabilidad» de la IA.

La agencia quiere saber si hay medidas que podrían ponerse en marcha para proporcionar garantías «de que los sistemas de IA son legales, eficaces, éticos, seguros y, por lo demás, dignos de confianza».

«Los sistemas de IA responsables podrían aportar enormes beneficios, pero solo si abordamos sus posibles consecuencias y daños. Para que estos sistemas alcancen todo su potencial, las empresas y los consumidores deben poder confiar en ellos», declaró el administrador de la NTIA, Alan Davidson.

El presidente Joe Biden dijo la semana pasada que aún está por ver si la IA es peligrosa. «En mi opinión, las empresas tecnológicas tienen la responsabilidad de asegurarse de que sus productos son seguros antes de hacerlos públicos».

ChatGPT, que ha asombrado a algunos usuarios por sus rápidas respuestas a las preguntas y ha angustiado a otros por sus imprecisiones, ha sido creado por OpenAI, con sede en California, y cuenta con el respaldo de Microsoft Corp (NASDAQ:MSFT)..

La NTIA tiene previsto redactar un informe en el que analizará «los esfuerzos para garantizar que los sistemas de IA funcionen como se afirma y sin causar daños» y afirmó que este análisis servirá de base para el trabajo en curso de la Administración Biden con e fin de «garantizar un enfoque cohesivo y global del Gobierno federal ante los riesgos y oportunidades relacionados con la IA».

Un grupo de ética tecnológica, el Center for Artificial Intelligence and Digital Policy (Centro de Inteligencia Artificial y Política Digital), pidió a la Comisión Federal de Comercio de Estados Unidos que impidiera a OpenAI publicar nuevas versiones comerciales de GPT-4 por considerarlo «tendencioso, engañoso y un riesgo para la privacidad y la seguridad pública».

(Reporte de David Shepardson y Diane Bartz; Edición de Nick Zieminski; editado en español por Tomás Cobos)

Fuente

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»