Workshop di ingegneria di prompt AI Smartcat

Ora è più facile che mai ottimizzare Smartcat per ottenere maggiore qualità e produttività utilizzando una serie di strumenti di intelligenza artificiale generativa integrati direttamente nella piattaforma.

Titolo

In questa sessione interattiva e pratica, il team del prodotto Smartcat:

➡️ Scopri le principali funzionalità di Gen AI ora disponibili nella piattaforma Smartcat AI
➡️ Approfondisci i dettagli dell'ottimizzazione di Smartcat per diversi scenari
➡️ Rispondi alle domande e fornisci indicazioni dettagliate per aiutarti a utilizzare questi strumenti di intelligenza artificiale con i tuoi contenuti

➡️ Condividi gli esempi di prompt OpenAI per Smartcat

Scopri come la tua organizzazione può applicare Smartcat AI

Domande e risposte sul webinar

D: Questa funzionalità è disponibile solo con l'abbonamento Unite?

R: Ti suggerisco di contattare il tuo referente per il successo del cliente e di chiedere informazioni sul tuo abbonamento.


D: Se si desidera tradurre un file XLIFF, utilizzare il prompt AI rappresenta un valore aggiunto? Oppure dovremmo attenerci al modello attuale?

R: Potrebbe essere un valore aggiunto, come mostrato da Andy, se si desidera generare una terminologia o uno stile molto specifico. Tra poco ti mostreremo cos'altro si può fare.


D: È disponibile un elenco di domini?

R: Gli LLM coprono la maggior parte dei settori. Vengono addestrati utilizzando miliardi di documenti.


D: Sarà possibile in un secondo momento collegare il prompt del glossario a glossari specifici invece che a tutti i glossari disponibili in un determinato progetto? Il mio obiettivo è ridurre i falsi positivi chiedendo al modello di utilizzare un glossario specifico, ma mantenendo comunque glossari di riferimento nell'editor affinché i posteditor possano controllare altra terminologia, come termini polisemici, termini generali, sinonimi, ecc., che non voglio che il modello utilizzi per la traduzione in tutti i casi.

A: Bella domanda. Al momento utilizziamo glossari associati al progetto. Nel tuo caso, un'opzione potrebbe essere quella di mettere a punto un motore utilizzando i tuoi dati. Ma possiamo prendere in considerazione il tuo suggerimento.


D: C'è qualche limite alla lunghezza del prompt nel caso in cui volessi essere molto specifico con stile, terminologia, frasi standard, ecc.?

A: Tecnicamente no. Ma questo potrebbe rallentare il processo di traduzione. Se si vuole influire sulla produzione generale, potrebbe essere più opportuno procedere alla messa a punto di un motore.


D: Possiamo aggiungere testi paralleli come riferimenti, in modo che l'intelligenza artificiale scelga lo stile da essi?

R: Puoi mettere a punto un motore in cui puoi fornire coppie di frasi come riferimento e il motore cercherà di adattarsi al tuo stile.


D: Quando eseguiamo una traduzione utilizzando un prompt/LLM, viene utilizzato il numero di parole del nostro abbonamento? Oppure come funziona?

R: Sì, le parole generate utilizzando un prompt dell'LLM utilizzeranno Smartwords.


D: Puoi spiegare il significato dell'utilizzo delle parentesi graffe? Si tratta di termini di sistema che funzionano solo se si digita la parola esattamente come mostrato?

R: Come ha detto Jean-Luc, disponiamo di una piccola libreria di prompt preconfigurati, che puoi trovare sul lato destro dell'interfaccia utente di generazione dei prompt.


D: Al momento, nei nostri progetti, il preset GPT con prompt non funziona per le stringhe che hanno tag (tag gialli per i markup, ogni volta che c'è formattazione nella sorgente). In questi casi, il preset passa automaticamente a un altro motore di traduzione. Conosci una soluzione alternativa e come funziona il preset GPT anche sulle stringhe con tag?

A: Come condiviso da Jean-Luc, diamo un'occhiata ad alcuni esempi specifici dei tag e vediamo se possiamo perfezionare il prompt per ignorare i tag nelle stringhe


D: Funziona altrettanto bene se lavoriamo con linguaggi che prevedono casi?

A: Sì. Esistono quindi le cosiddette lingue a basse risorse. Quindi i modelli, di solito i modelli quando cercano di prendere i dati, e ovviamente la maggior parte. La stragrande maggioranza dei dati è in lingua inglese. Ecco perché i modelli linguistici Llam mostrano i risultati migliori in inglese. Ma se provi altre lingue diverse. Noteresti un peggioramento della qualità e un peggioramento della lingua che stai cercando di tradurre. Probabilmente i risultati peggiori sarebbero ma i linguaggi con maiuscole/minuscole non sono necessariamente linguaggi con poche risorse. Quindi sì, funziona bene. Ma se parliamo di lingue con scarse risorse, una delle lingue più complesse che esistano è l'armeno. Lo faresti. Probabilmente otterrai alcuni risultati inaspettati. Ma di solito lo faresti. Si otterrebbero buoni risultati per i casi.