WitnessAI: Guardianes de los datos de tu IA empresarial

Inicio · Blog IA · Herramientas · WitnessAI: Guardianes de los datos de tu IA empresarial
Usuario preocupado por la seguridad de su ordenador

Generar contenido de forma automática tiene sus riesgos. ¿Te imaginas una IA que inventa datos, muestra sesgos o incluso emite textos ofensivos? Estos son problemas reales en la tecnología de IA generativa. Rick Caccia, CEO de WitnessAI, está convencido de que es posible hacer que estos modelos sean más seguros. Según Caccia, asegurar los modelos de IA no es solo un desafío fascinante para los investigadores, sino una necesidad para su uso práctico.

Imagina un coche deportivo con un motor potente: no sirve de mucho sin buenos frenos y dirección. De igual manera, controlar y asegurar la IA es tan crucial como la potencia misma del modelo.

En el mundo empresarial, hay una creciente demanda de estas medidas de seguridad. A pesar del entusiasmo por el potencial productivo de la IA generativa, existen serias preocupaciones sobre sus limitaciones. Un estudio de IBM revela que el 51% de los CEOs están contratando para roles relacionados con IA generativa, roles que no existían hasta hace poco. Sin embargo, solo el 9% de las empresas se sienten preparadas para manejar las amenazas asociadas a esta tecnología, incluyendo temas de privacidad y propiedad intelectual.

Aquí es donde entra WitnessAI. Su plataforma intercepta la actividad entre los empleados y los modelos de IA generativa personalizados que utilizan. No se trata de modelos de uso general como GPT-4 de OpenAI, sino más bien de modelos específicos como Llama 3 de Meta. WitnessAI aplica políticas y salvaguardas para mitigar riesgos, asegurando que los empleados puedan acceder a los datos empresariales de manera segura y controlada.

Cómo WitnessAI implementa salvaguardas eficaces

WitnessAI ofrece una solución innovadora para mitigar los riesgos asociados con el uso de modelos de IA generativa en las empresas. La plataforma de WitnessAI no solo intercepta la actividad entre empleados y modelos de IA personalizados, sino que también aplica políticas específicas de mitigación de riesgos. Estas políticas incluyen reglas que impiden que los empleados usen herramientas impulsadas por IA generativa de manera inapropiada, como preguntar sobre informes de ganancias no publicados o copiar códigos internos.

Una de las funcionalidades destacadas de WitnessAI es la capacidad de redactar información sensible y propietaria de las solicitudes enviadas a los modelos. Además, implementa técnicas para proteger los modelos contra ataques que podrían forzarles a generar respuestas inapropiadas. «Creemos que la mejor manera de ayudar a las empresas es definiendo el problema claramente —por ejemplo, la adopción segura de la IA— y luego vender una solución que aborde ese problema,» afirma Caccia.

WitnessAI también se encarga de que las organizaciones cumplan con las regulaciones existentes y emergentes en torno a la privacidad y la seguridad de los datos. La plataforma permite a los oficiales de privacidad monitorear y reportar la actividad y los riesgos asociados con el uso de IA generativa. Aunque todas las interacciones pasan a través de la plataforma de WitnessAI antes de llegar al modelo, la empresa asegura que su diseño aislado y cifrado protege los datos de los clientes de manera efectiva.

«Nuestro diseño único y aislado garantiza que la actividad de IA de cada cliente esté protegida y separada,» explica Caccia. «Cada cliente tiene una instancia separada de nuestra plataforma, cifrada con sus propias claves. Los datos de actividad de IA están aislados, y nosotros no podemos verlos.»

Aunque esto puede calmar las preocupaciones de los clientes sobre la privacidad, queda por ver cómo los empleados reaccionarán al monitoreo de sus actividades. Las encuestas muestran que la gente generalmente no aprecia ser vigilada en el trabajo y cree que esto puede afectar negativamente la moral de la empresa.

WitnessAI ha conseguido una inversión significativa de $27.5 millones de Ballistic Ventures y GV, el brazo de capital de riesgo de Google, lo cual refleja la confianza de los inversores en el potencial de la empresa.

Con estos fondos, WitnessAI planea expandir su equipo de 18 personas a 40 para finales de año. Este crecimiento será crucial para enfrentar a competidores tanto grandes como pequeños en el naciente mercado de soluciones para la conformidad y gobernanza de modelos de IA. Entre estos competidores se encuentran gigantes tecnológicos como AWS, Google y Salesforce, así como startups como CalypsoAI.

Caccia, CEO de WitnessAI, se muestra optimista sobre el futuro de la empresa. «Hemos construido nuestro plan para llegar bien hasta 2026 incluso si no tuviéramos ventas, pero ya tenemos casi 20 veces la cantidad de oportunidades necesarias para alcanzar nuestros objetivos de ventas este año,» afirma Caccia. Esta confianza en el éxito a largo plazo de WitnessAI se basa en su enfoque en el habilitamiento seguro de la IA, un área emergente que está en constante desarrollo y expansión.

Con la adopción de la IA generativa en auge y la necesidad de garantizar su uso seguro, WitnessAI parece estar bien posicionado para convertirse en un líder en este campo. La empresa sigue adaptándose y desarrollando nuevas características para satisfacer las demandas de este mercado en crecimiento.

DESCUBRE MÁS SOBRE EL TEMA

Deja el primer comentario