- Law Bytes
- Posts
- 🚨 California golpea a 32 gigantes de IA, FTC persigue chatbots y foro de IA en PR
🚨 California golpea a 32 gigantes de IA, FTC persigue chatbots y foro de IA en PR
Tu dosis bisemanal de LegalTech y ética digital desde Puerto Rico hacia el mundo.


en colaboración con TusDocumentosPR
¡Bienvenidos a una nueva edición de Law Bytes! 📬
La semana arranca con movimientos clave en la intersección entre derecho, regulación y tecnología. Desde Washington hasta Londres —y pasando por San Juan— gobiernos e instituciones empiezan a definir reglas y estrategias frente a una inteligencia artificial que avanza más rápido que la legislación.
Estados Unidos
Estados Unidos
La FTC investiga a los “chatbots de compañía”
La Federal Trade Commission (FTC) abrió una investigación a empresas que desarrollan chatbots diseñados como “compañía emocional”. El foco está en riesgos de manipulación, privacidad y publicidad encubierta.
Bajo la Sección 6(b) del FTC Act, la FTC solicitará información detallada sobre:
Posible dependencia emocional de los usuarios.
Publicidad oculta en interacciones.
Manejo de datos sensibles recolectados por estas plataformas.
👉 El mensaje es claro: los chatbots que actúan como “amigos” o “compañeros” deben cumplir los mismos estándares legales que cualquier otro servicio comercial.
EE. UU. entra oficialmente en la era de la responsabilidad por productos de IA
El 29 de septiembre se publicó el texto completo del proyecto AI LEAD Act (Aligning Incentives for Leadership, Excellence, and Advancement in Development Act), una iniciativa bipartidista que crea por primera vez un marco federal de responsabilidad por productos aplicable a sistemas avanzados de inteligencia artificial.
🔑 Puntos clave:
Desarrolladores responsables: si no ejercen cuidado razonable en el diseño del producto o en la provisión de instrucciones/advertencias, y esa falla es la causa del daño.
Defecto de diseño: el reclamante debe probar que al momento de la venta o distribución existía un diseño alternativo razonable que hubiera evitado el daño.
Responsabilidad estricta: los desarrolladores responden por productos defectuosos o peligrosos, salvo que el daño provenga de una modificación sustancial hecha por terceros.
Deployers responsables: cuando usan intencionalmente el producto fuera de su propósito previsto, o cuando el desarrollador no pueda ser llevado ante los tribunales (insolvencia, falta de jurisdicción, etc.).
Sin exenciones contractuales: los desarrolladores no podrán limitar su responsabilidad mediante contratos ni términos y condiciones.
Extranjeros bajo la lupa: desarrolladores extranjeros deberán designar un agente en EE. UU. para efectos de notificación judicial antes de poder desplegar productos en el país.
👉 La ley propuesta otorga un derecho privado de acción, aplicando a cualquier demanda presentada después de su entrada en vigor, incluso si el daño ocurrió antes. Un cambio trascendental: los chatbots y sistemas de IA ahora entran al terreno de la responsabilidad civil por productos.
$86 millones para preparar a la fuerza laboral del futuro
El Departamento del Trabajo de EE. UU. anunció la asignación de $86 millones en subvenciones a 14 estados con el objetivo de capacitar trabajadores en sectores estratégicos: manufactura avanzada, defensa, energía, infraestructura digital y empleos relacionados con IA.
Louisiana recibirá $7M para manufactura y centros de datos.
Oklahoma, $6M para defensa e infraestructura de IA.
Tennessee, $5M para manufactura avanzada, IA, energía nuclear y tecnología.
La secretaria de Trabajo, Lori Chavez-DeRemer, lo presentó bajo el lema “Make America Skilled Again”. Más allá del eslogan, la medida confirma que la política laboral federal ya incorpora la IA como motor de desarrollo económico.
🚨 California legisla sobre la seguridad de los modelos de IA más poderosos
California, hogar de 32 de las 50 principales empresas de IA del mundo, se convirtió en el primer estado de EE. UU. en legislar la seguridad de los modelos de IA de frontera. El gobernador firmó la SB 53, una ley que marca un precedente clave en la intersección con el EU AI Act.
Puntos principales de la SB 53:
Transparencia → obliga a los grandes desarrolladores a publicar marcos de seguridad basados en estándares nacionales e internacionales.
Innovación → crea un consorcio estatal para diseñar un cluster público de cómputo.
Seguridad → establece un canal de reporte de incidentes críticos de IA al Office of Emergency Services.
Responsabilidad → protege a denunciantes (whistleblowers) y establece sanciones civiles.
Actualización constante → el Department of Technology revisará anualmente la ley, considerando avances tecnológicos y estándares internacionales.
Cruce con el EU AI Act
EU AI Act habla de “general-purpose AI models” y fija riesgos sistémicos según poder de cómputo usado en el entrenamiento (>10^25 FLOPs).
SB 53 introduce “foundation models” y “frontier models” (con umbral en 10^26 operaciones).
Ambos marcos comparten la idea de que los modelos más avanzados plantean riesgos sistémicos, pero sus definiciones no coinciden del todo, creando un rompecabezas de cumplimiento para profesionales de gobernanza de IA.
👉 El mensaje es claro: la IA de frontera ya es asunto de legislación, seguridad pública y responsabilidad legal.
🌍 INTERNACIONAL

OpenAI apuesta por la soberanía tecnológica con Stargate UK
OpenAI, en alianza con NVIDIA y Nscale, anunció la creación de Stargate UK, una infraestructura de cómputo avanzada con sede en el Reino Unido.
Capacidad inicial: 8,000 GPUs en 2026, con planes de escalar a 31,000 GPUs.
Usos principales: servicios públicos críticos, salud, finanzas y seguridad nacional.
Incluye la OpenAI Academy, con la meta de formar 7.5 millones de trabajadores en IA para 2030.
👉 Con este movimiento, OpenAI explica que se impulsa la idea de una IA soberana, donde infraestructura y talento permanecen bajo jurisdicción local. También refuerza la alianza tecnológica EE. UU.–Reino Unido en medio de la competencia global.
Puerto Rico

Foro “Inteligencia Artificial y Estado de Derecho” en la UPR
La Fundación del Tribunal Supremo de Puerto Rico celebró el pasado viernes, en la Escuela de Derecho de la Universidad de Puerto Rico, la conferencia “Inteligencia Artificial y Estado de Derecho: Innovación y Cambio Sistémico”. El evento reunió a jueces, académicos, abogados y expertos en política pública para discutir los retos y oportunidades de la IA en el país.
Law Bytes, participó a través de su funador, el Lcdo. José David Torres Quiñones, quien fue panelista en la mesa “Acceso a la justicia ante el desarrollo de la inteligencia artificial y sus oportunidades”, moderada por la profesora Carolyn Guzmán Agosto, junto a la Hon. Raiza Cajigas Campbell, el profesor Samuel Serrano y la Sra. Belinda Hill. En su intervención, compartió la experiencia con ALIA, el primer asistente legal de IA en Puerto Rico y el Caribe, resaltando las lecciones aprendidas desde su lanzamiento en 2023 y la necesidad de acompañar la innovación con guías éticas y regulatorias claras.
🚀 Comunidad & Recursos
🤝 Únete a la PRAI Community: la primera organización sin fines de lucro en Puerto Rico dedicada a la educación y política pública sobre IA.
Social Media: linktr.ee/lawbytespr
📝 ¿Te interesa un seminario, conferencia o taller en tu oficina? Completa el formulario y coordina conmigo para:
Seminarios y conferencias sobre IA legal.
Implementación de IA en tu despacho u organización.
Auditorías y políticas internas de IA.
Colaboraciones estratégicas y proyectos especiales.
🎧 Para trabajar, soñar o inspirarte: nuestro playlist tech & sci-fi ya está en Spotify
En Law Bytes no solo hablamos de tecnología… también la escuchamos.
Creamos una playlist especial para todos nuestros lectores y oyentes que aman los temas de IA, ciencia ficción, robots, y el futuro digital. Perfecta para concentrarte, inspirarte o simplemente acompañarte mientras conquistas el día.
🔊 Desde sonidos tipo Blade Runner hasta beats futuristas y electrónicos:
📀 Escucha ahora "Law Bytes: Tech & Sci-Fi Vibes" en Spotify
Póntela mientras lees el newsletter, analizas una cláusula complicada o simplemente para entrar en modo “future law”. 😎
Esta edición fue cuidadosamente escrita y editada por JD.
¡Nos vemos en el próximo!
Aviso Legal: Las opiniones expresadas en este boletín no reflejan necesariamente las de los autores ni de Tower Dynamics Corp. DBA Law Bytes. La información se comparte de manera objetiva y no constituye asesoramiento.

