Categoria

IA generativa

Descubra os últimos avanços da Elastic em segurança LLM, com foco em integrações de campo padronizadas e recursos aprimorados de detecção. Saiba como a adoção desses padrões pode proteger seus sistemas.

imagem de espaço reservado
Incorporação de segurança em fluxos de trabalho LLM: Abordagem proativa da Elastic

Incorporação de segurança em fluxos de trabalho LLM: Abordagem proativa da Elastic

Mergulhe na exploração da segurança incorporada pela Elastic diretamente em modelos de linguagem grande (LLMs). Descubra nossas estratégias para detectar e mitigar várias das principais vulnerabilidades do OWASP em aplicativos LLM, garantindo aplicativos orientados por IA mais seguros e protegidos.

Acelerando o comércio de detecção elástica com LLMs

Acelerando o comércio de detecção elástica com LLMs

Saiba mais sobre como o Elastic Security Labs tem se concentrado em acelerar nossos fluxos de trabalho de engenharia de detecção, explorando recursos de IA mais generativos.

Usando LLMs e ESRE para encontrar sessões de usuários semelhantes

Usando LLMs e ESRE para encontrar sessões de usuários semelhantes

Em nosso artigo anterior, exploramos o uso do GPT-4 Large Language Model (LLM) para condensar as sessões de usuários do Linux. No contexto do mesmo experimento, dedicamos algum tempo para examinar sessões que compartilhavam semelhanças. Posteriormente, essas sessões semelhantes podem ajudar os analistas a identificar atividades suspeitas relacionadas.

Usando LLMs para resumir sessões de usuário

Usando LLMs para resumir sessões de usuário

Nesta publicação, falaremos sobre lições aprendidas e principais conclusões de nossos experimentos usando GPT-4 para resumir sessões de usuários.

Exploring the Future of Security with ChatGPT (Explorando o futuro da segurança com o ChatGPT)

Exploring the Future of Security with ChatGPT (Explorando o futuro da segurança com o ChatGPT)

Recentemente, a OpenAI anunciou APIs para engenheiros integrarem modelos ChatGPT e Whisper em seus aplicativos e produtos. Por algum tempo, os engenheiros podiam usar as chamadas da API REST para modelos mais antigos e, de outra forma, usar a interface ChatGPT por meio de seu site.