Scienza e Tecnologia - Source: Anthropic We investigated a "jailbreaking" technique - - a method that can be used to evade the safety guardrails put in place by the developers of large language models (LLMs. The technique, which we call "many - shot jailbreaking", ... ...
|
|
The technique, which we call "many - shot jailbreaking", is effective on Anthropic's own models, as well as those produced by other AI companies. We briefed other AI developers about this ...
Quinta's weblog
-
3-4-2024
|
|
|
|
|
|
Gli articoli sono stati selezionati e posizionati in questa pagina in modo automatico.
L'ora o la data visualizzate si riferiscono al momento in cui l'articolo è stato aggiunto o aggiornato in Libero 24x7