Governments, social scientists, technologists, and even the heads of AI organizations are expressing concerns about the potential misuse of the power unleashed by Foundation Models and Generative AI. Many nations and organizations have already started taking steps to regulate this powerful technology to prevent possible misuse and disruption of the societal fabric. Fear and concerns are synonymous with the approach toward nuclear technology worldwide. The teams of the Object Management Group (OMG) Responsible Computing Initiative launched a Tiger team to study and evaluate the potential concerns regarding Generative AI Techniques (GAIT) and recommend ways to channel the capabilities of GAIT responsibly to benefit society. Specific objectives include investigations on how to: - Instill trust and reduce bias in the data used to build GAI models. - Recommend proper and ethical use of AI models whilst protecting the intellectual rights of authors, artists, and other professionals. - Regulate the proliferation of AI models to ensure no disruptive effects on employment, society, and the environment. - Educate the consumers, administrators, and governmental bodies on the dangers and limitations of excessive use of AI models. The different tracks of this initiative are: • Ensure trustworthy Generative AI Models, which must be based on accurate and unbiased data. • Impact on the Labor market, especially many white-collar jobs like copywriters, interpreters, and even professionals like investment advisors, editors, lawyers, customer support professionals, creative writers, doctors, etc. • Issues related to IP, copyright violation, ownership, royalty, etc. • Impact on the environment with the power-hungry deep learning process to build(train) GAI models. Michael Linehan (OMG) and Cheranellore Vasudevan (IBM) will present their thoughts as they start their work on this initiative.

Hora

14:00 - 15:00 hs GMT+1

Organizador

Industry IoT Consortium
Compartir
Enviar a un amigo
Mi email *
Email destinatario *
Comentario *
Repite estos números *
Control de seguridad
Diciembre / 2024 321 webinars
Lunes
Martes
Miércoles
Jueves
Viernes
Sábado
Domingo
Lun 25 de Diciembre de 2024
Mar 26 de Diciembre de 2024
Mié 27 de Diciembre de 2024
Jue 28 de Diciembre de 2024
Vie 29 de Diciembre de 2024
Sáb 30 de Diciembre de 2024
Dom 01 de Diciembre de 2024
Lun 02 de Diciembre de 2024
Mar 03 de Diciembre de 2024
Mié 04 de Diciembre de 2024
Jue 05 de Diciembre de 2024
Vie 06 de Diciembre de 2024
Sáb 07 de Diciembre de 2024
Dom 08 de Diciembre de 2024
Lun 09 de Diciembre de 2024
Mar 10 de Diciembre de 2024
Mié 11 de Diciembre de 2024
Jue 12 de Diciembre de 2024
Vie 13 de Diciembre de 2024
Sáb 14 de Diciembre de 2024
Dom 15 de Diciembre de 2024
Lun 16 de Diciembre de 2024
Mar 17 de Diciembre de 2024
Mié 18 de Diciembre de 2024
Jue 19 de Diciembre de 2024
Vie 20 de Diciembre de 2024
Sáb 21 de Diciembre de 2024
Dom 22 de Diciembre de 2024
Lun 23 de Diciembre de 2024
Mar 24 de Diciembre de 2024
Mié 25 de Diciembre de 2024
Jue 26 de Diciembre de 2024
Vie 27 de Diciembre de 2024
Sáb 28 de Diciembre de 2024
Dom 29 de Diciembre de 2024
Lun 30 de Diciembre de 2024
Mar 31 de Diciembre de 2024
Mié 01 de Diciembre de 2024
Jue 02 de Diciembre de 2024
Vie 03 de Diciembre de 2024
Sáb 04 de Diciembre de 2024
Dom 05 de Diciembre de 2024

Publicidad

Lo más leído »

Publicidad

Más Secciones »

Hola Invitado