Las grandes empresas tecnológicas califican el uso de la inteligencia artificial de manera tan diferente


• El ex CEO de Google advierte sobre las limitaciones en el desarrollo de la IA
• Las consecuencias del uso masivo de la IA no son previsibles
• EE. UU. y la UE: fuertes llamados a una regulación temprana

Ahora el ex CEO de Google también se involucra eric schmidt en la discusión sobre la regulación de la inteligencia artificial. Dado que los gobiernos carecen de experiencia en IA, dijo Altman en el programa «Meet the Press» de NBC, deberían dejar las preguntas sobre la regulación adecuada de la inteligencia artificial a las grandes empresas de tecnología. Este argumento se encuentra con una discusión en la que las demandas de regulación y mecanismos de control estatal son cada vez más fuertes, ya que muchos consideran que los riesgos de una expansión masiva de los sistemas de IA son imprevisibles.

demandas de regulación

Uno de los defensores más conocidos de una regulación más estricta de las aplicaciones de IA es el jefe de Tesla Elon Musk. Musk, quien inicialmente estuvo involucrado en la fundación de OpenAI pero luego dejó la startup, escribió una carta abierta junto con el cofundador de Apple, Steve Wozniak, en marzo. Pide una pausa de seis meses en el desarrollo de los sistemas de IA. Justificando su solicitud, los autores de la carta escribieron: «Los sistemas de inteligencia artificial de alto rendimiento no deben desarrollarse hasta que estemos seguros de que sus impactos serán positivos y sus riesgos manejables».

El jefe de OpenAI, Sam Altman, también está comprometido con la regulación estricta de la tecnología basada en IA, como la suya, ChatGPT. Hablando ante el Senado de los EE. UU., Altman dijo: «A medida que avanza esta tecnología, entendemos que a la gente le preocupa cómo podría cambiar la forma en que vivimos». Enfatizó: «Nosotros también». Mientras tanto, en la audiencia del Senado, Altman pidió la formación de un organismo oficial, a nivel mundial o de EE. UU., que verificaría el cumplimiento de los estándares de seguridad para los poderosos sistemas de inteligencia artificial y emitiría las licencias apropiadas.

Restricción por regulación prematura

Eric Schmidt, por otro lado, argumenta que la regulación gubernamental prematura de los sistemas de IA podría obstaculizar un mayor desarrollo. Porque trazar «límites razonables» simplemente no es posible en este momento porque nadie en la industria sabe dónde están, dijo en una entrevista con NBC. Más bien, las empresas deberían acordar no permitir que el desarrollo de la inteligencia artificial degenere en una «carrera hacia el abismo».

«La pregunta clave desde mi punto de vista es cómo ponemos fin a los peores comportamientos y cómo conseguimos un acuerdo internacional sobre qué son estas cosas», resumió Schmidt, quien en su papel como presidente de la Comisión de Seguridad Nacional ya apoyó el desarrollo de tecnologías de IA para 2021 y recomendó sus argumentos juntos.

Enfoques regulatorios en EE. UU. y la UE

A principios de mayo, el presidente de EE. UU., Joe Biden, y la vicepresidenta, Kamala Harris, invitaron a los jefes de las empresas tecnológicas líderes en el campo. La lista de invitados incluía al jefe de la empresa matriz de Google, Alphabet, Sundar Pichai, al director ejecutivo de Microsoft, Satya Nadella, y a Sam Altman de OpenAI; sin embargo, según los informes de los medios, el jefe de Meta, Mark Zuckerberg, no fue invitado. La protección de datos estuvo en el centro de la discusión.

En la búsqueda de una definición temprana de regulaciones para tratar con la IA, el gobierno de los EE. UU. está planeando como uno de los próximos pasos que las compañías de IA «casi lanzarán su software para su lanzamiento» en la conferencia de hackers Defcon en agosto, para que pueda ser sometido a duras pruebas como informa el Süddeutsche Zeitung.

El gobierno federal alemán también está pidiendo un «marco legal claro» para el uso de sistemas de IA, como informan numerosos medios. A nivel de la UE, se está trabajando actualmente en un proyecto de ley para proteger los derechos fundamentales con respecto al uso de la inteligencia artificial.

Redacción finanzen.net

Productos apalancados seleccionados en Alphabet A (ex Google)Con knock-outs, los inversores especulativos pueden participar de manera desproporcionada en los movimientos de precios. Simplemente seleccione el apalancamiento deseado y le mostraremos productos abiertos adecuados en Alphabet A (ex Google)

El apalancamiento debe estar entre 2 y 20

Sin datos

Más noticias sobre Alphabet A (ex Google)

Fuentes de imagen: Den Rise / Shutterstock.com, PopTika / Shutterstock.com



ttn-es-28