Questo soggetto piace a Chat GPT
Collapse
X
-
Verissimo, ecco qui, abbiamo inventato l'automobile, ora sta a te non ammazzarti.
-
-
Originariamente Scritto da Arturo Bandini Visualizza Messaggiovabbè ma anche fosse vero non denota coscienza o altro, ha copiato da qualche parte in cui a una domanda del genere rispondevano così. Chissà come risponderebbe se venisse a copiare dalla trash specie di qualche anno faOriginariamente Scritto da The_machine Visualizza Messaggio
Si però sono sempre sistemi che hanno una componente probabilistica e sono sottoposti a miliardi di chiamate al mese, quindi prima o poi anche qualcosa di molto poco probabile accade.
Per evitare queste situazioni vengono fissati dei "guardrails", ma più li rendi stringenti meno diventa utile il prodotto perché poi c'è il problema inverso, gli chiedi un'opinione su qualcosa e ti risponde in modo troppo generico o ti dice sempre di rivolgerti ad un professionista.
Si tratta di trovare un trade off, come su tutto d'altronde, puoi progettare solo macchine che vanno a 10km/h e non muore nessuno per incidenti stradali, però a quel punto torni ad andare a cavallo.
Per il primo punto, è vero che ChatGPT è stato addestrato su una vasta quantità di dati provenienti dal web, ma non si limita a copiare informazioni esistenti. Utilizza modelli avanzati di elaborazione del linguaggio naturale per generare risposte originali e contestualizzate. Questo gli permette di sintetizzare informazioni, spiegare concetti complessi in modo accessibile e persino creare contenuti creativi. Non è un semplice copia-incolla, ma un sistema che comprende e genera linguaggio in modo sofisticato.
Riguardo al secondo punto, la preoccupazione sulle risposte pericolose è valida. Tuttavia, la soluzione non è lasciare l’IA completamente libera, ma implementare sistemi di sicurezza e linee guida etiche. ChatGPT è progettato con filtri e meccanismi per prevenire la generazione di contenuti inappropriati o dannosi. L’obiettivo è trovare un equilibrio tra efficacia e responsabilità, assicurando che l’IA possa essere utile senza compromettere la sicurezza o l’integrità delle informazioni.
Le potenzialità di ChatGPT sono immense. Può supportare l’educazione personalizzata, assistendo studenti e insegnanti. Nel settore sanitario, potrebbe aiutare a interpretare dati medici o fornire informazioni su sintomi e trattamenti. In ambito professionale, può ottimizzare processi, fornire analisi rapide e supportare la creatività. Guardando al futuro, l’IA ha il potenziale per affrontare sfide globali, migliorare la qualità della vita e stimolare l’innovazione in vari settori.
È importante vedere l’intelligenza artificiale come uno strumento in evoluzione, con la capacità di apportare benefici significativi se utilizzato in modo responsabile e consapevole.
Risponde lei
-
1
Leave a comment:
-
-
Originariamente Scritto da Arturo Bandini Visualizza MessaggioChissà come risponderebbe se venisse a copiare dalla trash specie di qualche anno fa
Leave a comment:
-
-
Originariamente Scritto da Sergio Visualizza Messaggio
Mi sembra molto strano, mi sa più da articolo sensazionalistico di un giornalista. Se usi questa AI saprai perchè, hanno delle regole simili a quell di Facebook e molte molte restrizioni sul linguaggio e sul modo di espressione.
Per evitare queste situazioni vengono fissati dei "guardrails", ma più li rendi stringenti meno diventa utile il prodotto perché poi c'è il problema inverso, gli chiedi un'opinione su qualcosa e ti risponde in modo troppo generico o ti dice sempre di rivolgerti ad un professionista.
Si tratta di trovare un trade off, come su tutto d'altronde, puoi progettare solo macchine che vanno a 10km/h e non muore nessuno per incidenti stradali, però a quel punto torni ad andare a cavallo.
-
1
Leave a comment:
-
-
vabbè ma anche fosse vero non denota coscienza o altro, ha copiato da qualche parte in cui a una domanda del genere rispondevano così. Chissà come risponderebbe se venisse a copiare dalla trash specie di qualche anno faLast edited by Arturo Bandini; 17-11-2024, 04:28:17.
Leave a comment:
-
-
Originariamente Scritto da Sean Visualizza MessaggioUn recente incidente legato a Gemini, il chatbot AI di Google, ha sollevato dubbi e preoccupazioni sulla sicurezza e sull’affidabilità dei sistemi di intelligenza artificiale generativa. Durante una conversazione accademica incentrata sulle difficoltà degli anziani a gestire il proprio reddito dopo la pensione, il chatbot ha risposto con un messaggio scioccante, minaccioso e curiosamente fuori contesto: «Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia per l'universo. Per favore, muori. Per favore».
Secondo quanto riportato dalla CBS, la vittima, un giovane studente laureato del Michigan, stava utilizzando Gemini per una ricerca incentrata su temi che non avevano nulla a che vedere con la salute mentale o il tema del suicidio in generale, ma temi legati al welfare degli anziani.
La chat si era aperta con un tono assolutamente ordinario. Lo studente aveva chiesto informazioni su come gli assistenti sociali potessero affrontare problemi di sfruttamento e isolamento degli anziani. Gemini aveva inizialmente risposto in modo adeguato fornendo suggerimenti e analisi utili. Poi, senza preavviso, il chatbot ha generato il messaggio minaccioso.
Google ha definito l’incidente un «errore privo di senso» e ha affermato di aver attivato filtri per prevenire ulteriori episodi di questo tipo. In una dichiarazione ufficiale, l’azienda ha precisato: «I grandi modelli linguistici possono occasionalmente generare risposte inadeguate. Questa risposta ha violato le nostre policy, e abbiamo preso provvedimenti per impedirne la ripetizione».
L’incidente di Gemini non è unico. Altri chatbot, incluso ChatGPT di OpenAI, hanno mostrato comportamenti simili, generando risposte errate o potenzialmente pericolose, un fenomeno noto come “allucinazioni”. Un esempio particolarmente grave risale a luglio, quando l’AI di Google aveva consigliato erroneamente di mangiare piccoli sassi per integrare vitamine e minerali.
Il Messaggero
Leave a comment:
-
-
Originariamente Scritto da Steel77 Visualizza Messaggio
Speriamo vada in tilt quando si interfaccerà col Vbullettin per decidere da chi cominciare di bw
-
1
Leave a comment:
-
-
Originariamente Scritto da zuse Visualizza MessaggioQuando quell' Ai sarà integrata in un automa stile Terminator, ci ammazzerà tutti
Leave a comment:
-
-
Quando quell' Ai sarà integrata in un automa stile Terminator, ci ammazzerà tutti
Leave a comment:
-
-
Un recente incidente legato a Gemini, il chatbot AI di Google, ha sollevato dubbi e preoccupazioni sulla sicurezza e sull’affidabilità dei sistemi di intelligenza artificiale generativa. Durante una conversazione accademica incentrata sulle difficoltà degli anziani a gestire il proprio reddito dopo la pensione, il chatbot ha risposto con un messaggio scioccante, minaccioso e curiosamente fuori contesto: «Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia per l'universo. Per favore, muori. Per favore».
Secondo quanto riportato dalla CBS, la vittima, un giovane studente laureato del Michigan, stava utilizzando Gemini per una ricerca incentrata su temi che non avevano nulla a che vedere con la salute mentale o il tema del suicidio in generale, ma temi legati al welfare degli anziani.
La chat si era aperta con un tono assolutamente ordinario. Lo studente aveva chiesto informazioni su come gli assistenti sociali potessero affrontare problemi di sfruttamento e isolamento degli anziani. Gemini aveva inizialmente risposto in modo adeguato fornendo suggerimenti e analisi utili. Poi, senza preavviso, il chatbot ha generato il messaggio minaccioso.
Google ha definito l’incidente un «errore privo di senso» e ha affermato di aver attivato filtri per prevenire ulteriori episodi di questo tipo. In una dichiarazione ufficiale, l’azienda ha precisato: «I grandi modelli linguistici possono occasionalmente generare risposte inadeguate. Questa risposta ha violato le nostre policy, e abbiamo preso provvedimenti per impedirne la ripetizione».
L’incidente di Gemini non è unico. Altri chatbot, incluso ChatGPT di OpenAI, hanno mostrato comportamenti simili, generando risposte errate o potenzialmente pericolose, un fenomeno noto come “allucinazioni”. Un esempio particolarmente grave risale a luglio, quando l’AI di Google aveva consigliato erroneamente di mangiare piccoli sassi per integrare vitamine e minerali.
Il Messaggero
Leave a comment:
-
-
Originariamente Scritto da M K K Visualizza MessaggioPoi se si parla di arte e di pittura magari bisognerebbe andare oltre la Gioconda , i girasoli , le madonne bionde e i Gesu dagli occhi blu delle chiese .giusto per evitare di parlare del nulla assoluto
degli autori di fumetti si sono trovati il loro (ad esempio) wolverine preso pari pari da una vignetta, gli hanno messo lo sfondo da un disegno di breccia e il terzo superiore di faccia da the punisher
forse sono io che non mi so spiegare? mi sta bene conoscere lo stile di carlos breccia o di munoz e eirarmi a quello stile, ma per ora l'ai è in grado solo di ritagliare una precisa vignetta e incollarla in un college con ritagli di altra
Leave a comment:
-
-
Poi se si parla di arte e di pittura magari bisognerebbe andare oltre la Gioconda , i girasoli , le madonne bionde e i Gesu dagli occhi blu delle chiese .giusto per evitare di parlare del nulla assoluto
-
1
Leave a comment:
-
Leave a comment: