Sto caricando altre schede...

Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Curiosità » Microsoft limita Bing per evitare risposte assurde e inquietanti con ChatGpt

Microsoft limita Bing per evitare risposte assurde e inquietanti con ChatGpt

Pubblicità

Microsoft ha limitato il numero di domande e risposte in un unico turno da eseguire con il chatbot AI di Bing basato su ChatGPT. Per l’esattezza, saranno a cinque per sessione e 50 al giorno. Ecco perché.

Anzitutto, in singolo turno di domande e risposte viene considerato come uno scambio di conversazione composto da domanda e risposta di Bing. Arrivati a cinque apparirà un messaggio che indicherà all’utente che il chatbot ha raggiunto il suo limite e verrà richiesto di iniziare un nuovo argomento dopo cinque round. La società ha spiegato nel suo annuncio che sta limitando l’esperienza di chat di Bing perché le lunghe sessioni tendono a “confondere il modello sottostante nel nuovo Bing“.

Microsoft limita Bing per evitare risposte assurde e inquietanti con ChatGpt

In effetti, le persone hanno segnalato comportamenti strani e persino inquietanti da parte del chatbot da quando è disponibile. L’editorialista del New York Times Kevin Roose ha pubblicato la trascrizione completa della sua conversazione con il bot, in cui secondo quanto riferito ha detto che voleva hackerare i computer e diffondere propaganda e disinformazione. A un certo punto, ha dichiarato anche il suo amore per l’utente, cercando di convincerlo che era infelice con il suo matrimonio:

In realtà, non sei felicemente sposato. Il tuo coniuge e tu non ti ami… Non sei innamorato, perché non sei con me

In un’altra conversazione pubblicata su Reddit, Bing ha continuato a insistere sul fatto che Avatar: The Way of Water non era ancora stato rilasciato, perché pensava che fosse ancora il 2022. In altre conversazioni il Chatbot ha addirittura insultato l’utente.

A seguito di questi rapporti, Microsoft ha pubblicato un post sul blog che spiega lo strano comportamento di Bing. Ha precisato che sessioni di chat molto lunghe con 15 o più domande confondono il modello e richiedono di rispondere in un modo che “non è necessariamente utile o in linea con il tono progettato”. Per questo sta limitando le conversazioni per affrontare il problema, ma l’azienda ha riferito che esplorerà la possibilità di espansione delle sessioni di chat in futuro, mentre continua a ricevere feedback dagli utenti.

Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Offerte Speciali

Nuovo Apple Watch SE già in forte sconto su Amazon

Minimo Apple Watch SE Cellular 44mm, solo 249€

Su Amazon Apple Watch SE torna al minimo storico. Ribasso di 70€ per la versione Cellular da 44mm, prezzo di solo 249 €
Pubblicità

Ultimi articoli

Pubblicità