CÓMO CREAR, DIFUNDIR Y COMPARTIR LA IA GENERATIVA DE FORMA RESPONSABLE
Empresas como OpenAI y TikTok han firmado un nuevo conjunto de directrices diseñadas para ayudarles a ser más transparentes en torno a la IA generativa.
Se han firmado un nuevo conjunto de directrices para que empresas como OpenAI, TikTok, Adobe, la BBC y la aplicación de citas Bumble, para manejar contenido generado por las IA de forma responsable, con un conjunto de recomendaciones que instan tanto a los creadores como distribuidores de medios sintéticos creados digitalmente, como la BBC y TikTok, a ser mas transparentes tomando un control sobre las limitaciones de lo que pueden hacer estas tecnologías e identificar cuando las personas realizan uso de esta.
Hasta ahora se ha logrado que realmente se comprometan a seguir las recomendaciones las empresas Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness y las empresas emergentes de medios sintéticos Synthesia, D-ID y Respeecher. Ademas de este gran avance, la unión europea esta tratando de incluir IA generativa en su ley sobre IA, la AI Act con el propósito de incluir la revelación de cuando las personas usan deepfakes y obligación de cumplir requisitos en la transparencia de las empresas.
Henry Ajder, experto en IA generativa que ha colaborado en la elaboración de las directrices, afirma que aunque la IA generativa es un salvaje oeste en estos momentos, espera que ofrezcan a las empresas aspectos clave que deben tener en cuenta a la hora de incorporar esta tecnología a sus negocios. Por otro lado Según Hany Farid, profesor de la Universidad de California en Berkeley que investiga los medios sintéticos y los deepfakes, es importante concienciar e iniciar un debate sobre formas responsables de pensar en los medios sintéticos.
También se puede recalcar que Ilke Demir, investigadora científica de Intel que dirige el trabajo de la empresa sobre el desarrollo responsable de la IA generativa, afirma que hace falta hacer posible que los propios sistemas de IA sean capaces de manejar su responsabilidad, esto seria como una capa de seguridad ya que las directrices no mencionan que haya garantía de inexistencia en cuanto a contenido toxico en las bases de datos de los modelos de IAs generativas.
Las directrices incluyen una lista de daños que estas empresas quieren evitar, como el fraude, el acoso y la desinformación. Pero un modelo de IA generativa que siempre crea personas blancas también esta causando daño por la exclusión que genera y esto no es actualmente tomado en cuenta, agrega Demir, pero también hay otro problema fundamental según Farid, las empresas reconocen que podrían ofrecer varias formas de mitigar los problemas graves, "¿por qué no se plantean la pregunta "¿deberíamos hacer esto en primer lugar?".
Para leer más al respecto busca Aquí.
Comentarios
Publicar un comentario