Después del escándalo que rodea a Sam Altman: ¿Son los beneficios de la IA en OpenAI compatibles con los principios éticos?


El caos de liderazgo en el desarrollador de ChatGPT OpenAI parece haber disminuido por el momento, pero muchos puntos aún no están claros. Sobre todo, ahora la startup debe abordar la cuestión de si su misión ética es realmente compatible con la estructura empresarial.

• La misión de OpenAI se centra en los intereses de toda la humanidad.
• El CEO Sam Altman probablemente esté más orientado a las ganancias
• La estructura corporativa conduce inevitablemente a tensiones

La startup de inteligencia artificial OpenAI ha pasado por un momento turbulento después de que el jefe y cofundador Sam Altman fuera sorprendentemente expulsado por la junta directiva y luego regresado unos días después. En lugar de Altman, la mayoría de los miembros de la junta directiva en ese momento ya no están en OpenAI. Sin embargo, todavía no se sabe qué llevó exactamente a la junta directiva a decidir despedir al jefe de OpenAI. La publicación del blog de la startup decía que Altman «no fue consistentemente abierto en su comunicación con la junta directiva». [gewesen]», lo que afectó su capacidad para asumir sus responsabilidades». Como resultado, perdieron la confianza en la capacidad de Altman para continuar liderando OpenAI. No está claro dónde la comunicación no fue lo suficientemente abierta. Sin embargo, según «The Information», todavía hay Ser una investigación formal sobre el asunto que llevó a la expulsión de Altman.

Como escribe Ann Skeet, directora senior de ética de liderazgo en el Centro Markkula de Ética Aplicada, en un artículo invitado para Fortune, ha habido tensiones durante el año pasado en la junta directiva de OpenAI, que incluía a Sam Altman antes del caos de liderazgo. Estos podrían haber surgido del hecho de que Sam Altman, como director ejecutivo de OpenAI, antepuso los intereses de la startup, mientras que la junta directiva está comprometida con la misión ética de la empresa. Este contraste podría haber llevado en última instancia a la ruptura.

La misión de OpenAI: IA para el bien de la humanidad

OpenAI se describe a sí misma en el sitio web de la empresa como una «empresa de investigación y entrega de IA» cuya «misión» es «garantizar que la inteligencia artificial general beneficie a toda la humanidad». Según OpenAI, el término inteligencia artificial general (AGI) se refiere a “sistemas de IA que generalmente son más inteligentes que las personas”. La startup también afirma que quiere construir «AGI segura y útil». Junto con la misión formulada, esto sugiere que la startup antepone la ética a las ganancias. Pero la estructura de la empresa es bastante compleja y no está completamente libre de orientación lucrativa.

Según la empresa, OpenAI se fundó en 2015 como una organización sin fines de lucro. Sin embargo, en 2019 se produjo una reestructuración para garantizar que la empresa también pudiera reunir el capital que necesitaba para cumplir su misión. Al mismo tiempo, se debe mantener la misión, el liderazgo y la supervisión de la organización sin fines de lucro. Esto llevó a la creación de OpenAI LP, una «mezcla de una empresa con y sin fines de lucro que llamamos una empresa de ‘beneficio limitado'», según la startup. Sin embargo, la organización original como «OpenAI Nonprofit» continúa apoyando esto. Al combinar una empresa con y sin fines de lucro, los patrocinadores pueden recibir un cierto retorno máximo de su inversión en OpenAI LP, pero cualquier retorno adicional se destina a la organización sin fines de lucro OpenAI. La empresa con beneficios limitados es supervisada por la junta directiva, que se supone debe pensar y actuar de manera caritativa y garantizar que OpenAI cumpla con su misión y respete sus estatutos. De ahí la “mayoría de la junta […] independientes y los directores independientes […] no está involucrado en OpenAI», como dice en el sitio web de OpenAI.

Contradicciones entre la obtención parcial de beneficios y la condición sin fines de lucro

Según el artículo invitado de Ann Skeet en Fortune, a la junta directiva de OpenAI se le dio deliberadamente el objetivo y el poder de excluir los motivos de lucro de la ecuación. Además, según «The Algorithmic Bridge», también debería garantizar que la seguridad y la alineación de la IA sigan siendo la máxima prioridad en la jerarquía de valores de la empresa, e incluso ha prometido destruir OpenAI si esto fuera necesario por razones de seguridad. Entonces, si bien la junta directiva de OpenAI tiene como objetivo anteponer la humanidad a las ganancias, OpenAI también está dirigida por Sam Altman, quien, según Data Ethics, está «extremadamente orientado a las ganancias».

Es evidente que ambos aspectos son difíciles de conciliar y que las tensiones son casi inevitables, como aparentemente también era así antes del reciente escándalo. «Las fuentes me dicen que el enfoque de la compañía en las ganancias bajo Altman y la velocidad del desarrollo, que podría considerarse demasiado arriesgado, y el lado sin fines de lucro, que abogaba por una mayor seguridad y precaución, estaban en desacuerdo», escribió la reportera técnica Kara a la que se refirió Swisher. el despido de Altman en el servicio de mensajes cortos X, anteriormente Twitter. Sin embargo, según Swisher, las opiniones difieren sobre si la expulsión de Altman fue un golpe de Estado o si fue la decisión correcta.

Beneficio versus ética: ¿quién sale victorioso del caos?

En general, es probable que siga habiendo desacuerdos sobre si las ganancias o la ética tienen o deberían tener mayor prioridad en OpenAI. Porque, como señala un artículo en “Quora”, los puntos que supuestamente demuestran la prioridad de la ética siempre reciben críticas. Según la publicación «Quora», OpenAI ha publicado varias directrices y principios para el desarrollo ético de la IA, que tratan, entre otras cosas, de la seguridad, la equidad y la transparencia. Sin embargo, para los críticos, estos son demasiado vagos y demasiado abiertos a diferentes interpretaciones. Las medidas de seguridad de la empresa para evitar abusos, prejuicios y discriminación también se consideran a menudo insuficientes. Además, también se han criticado las alianzas que OpenAI ha establecido con organizaciones como universidades o institutos de investigación que apuestan por promover el desarrollo ético de la IA. Según el artículo de Quora, estos no son suficientes para garantizar que las tecnologías de OpenAI se utilicen realmente de manera responsable.

El hecho de que Altman vuelva a estar al mando de OpenAI, mientras que la junta directiva se está reconstruyendo casi por completo, ahora podría indicar que el lado orientado a las ganancias de la empresa de IA realmente ha tomado la delantera. De hecho, la decisión de 2019 de comercializar su propia tecnología a través de OpenAI LP podría ser una indicación de que la startup puede estar más interesada en ganar dinero que en el desarrollo ético de la IA. Sin embargo, el desarrollo de la IA obviamente también cuesta dinero, hasta tal punto que las sumas necesarias probablemente no puedan recaudarse de manera realista sólo con donaciones. En las próximas semanas y meses probablemente quedará claro si OpenAI renunciará por completo a su lado sin fines de lucro bajo Altman y la nueva junta directiva en el futuro o continuará tratando de lograr el difícil equilibrio entre ganancias y ética.

Equipo editorial finanzen.net





ttn-es-28