La firma surcoreana ha informado de esta decisión a sus empleados esta misma semana, mostrando su preocupación de que los datos transmitidos a estas plataformas de IA se almacenan en servidores externos, lo que dificulta su recuperación y eliminación y puede filtrarse a otros usuarios.
El 65% de los empleados aseguró que estas herramientas suponen un riesgo para la seguridad
La decisión llega además después de una encuesta interna en la que el 65% de los empleados aseguró que estas herramientas suponen un riesgo para la seguridad y es que a principios del mes de abril, los ingenieros de Samsung filtraron por error código fuente interno publicándolo en ChatGPT.
El Gobierno aprovechará la Presidencia europea para impulsar la regulación de la inteligencia artificial
Leer más
"Hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa"
"El interés en las plataformas de IA generativa como ChatGPT ha ido creciendo interna y externamente", apunta Samsung en un documento a sus empleados. "Si bien este interés se centra en la utilidad y la eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa", advierten, prohibiendo así que se utilice esta herramienta, cuyo incumplimiento puede suponer el despido.
De este modo, Samsung se suma a una amplia lista de empresas que han mostrado su preocupación por esta tecnología. En febrero, bancos como JPMorgan, Bank of America y Citigroup prohibieron o restringieron su uso e incluso países como Italia han bloqueado sus servicios de manera temporal, aunque ya se han reactivado. En Europa, los gobiernos buscan un consenso común por lo que durante este año se espera contar con un texto regulatorio.