Questo soggetto piace a Chat GPT

Collapse
X
 
  • Filter
  • Ora
  • Show
Clear All
new posts

  • M K K
    replied
    Da dove dgt, hai cam , natural ?

    Leave a comment:


  • zuse
    replied
    Da comunque risposte noiose. Su bw sarebbe piena di srep

    Leave a comment:


  • Sergio
    commented on 's reply
    Verissimo, ecco qui, abbiamo inventato l'automobile, ora sta a te non ammazzarti.

  • Sergio
    replied
    Originariamente Scritto da Arturo Bandini Visualizza Messaggio
    vabbè ma anche fosse vero non denota coscienza o altro, ha copiato da qualche parte in cui a una domanda del genere rispondevano così. Chissà come risponderebbe se venisse a copiare dalla trash specie di qualche anno fa
    Originariamente Scritto da The_machine Visualizza Messaggio

    Si però sono sempre sistemi che hanno una componente probabilistica e sono sottoposti a miliardi di chiamate al mese, quindi prima o poi anche qualcosa di molto poco probabile accade.

    Per evitare queste situazioni vengono fissati dei "guardrails", ma più li rendi stringenti meno diventa utile il prodotto perché poi c'è il problema inverso, gli chiedi un'opinione su qualcosa e ti risponde in modo troppo generico o ti dice sempre di rivolgerti ad un professionista.

    Si tratta di trovare un trade off, come su tutto d'altronde, puoi progettare solo macchine che vanno a 10km/h e non muore nessuno per incidenti stradali, però a quel punto torni ad andare a cavallo.
    Capisco le vostre preoccupazioni riguardo all’intelligenza artificiale come ChatGPT. Vorrei offrire una prospettiva sulle sue potenzialità e utilità attuali e future.

    Per il primo punto, è vero che ChatGPT è stato addestrato su una vasta quantità di dati provenienti dal web, ma non si limita a copiare informazioni esistenti. Utilizza modelli avanzati di elaborazione del linguaggio naturale per generare risposte originali e contestualizzate. Questo gli permette di sintetizzare informazioni, spiegare concetti complessi in modo accessibile e persino creare contenuti creativi. Non è un semplice copia-incolla, ma un sistema che comprende e genera linguaggio in modo sofisticato.

    Riguardo al secondo punto, la preoccupazione sulle risposte pericolose è valida. Tuttavia, la soluzione non è lasciare l’IA completamente libera, ma implementare sistemi di sicurezza e linee guida etiche. ChatGPT è progettato con filtri e meccanismi per prevenire la generazione di contenuti inappropriati o dannosi. L’obiettivo è trovare un equilibrio tra efficacia e responsabilità, assicurando che l’IA possa essere utile senza compromettere la sicurezza o l’integrità delle informazioni.

    Le potenzialità di ChatGPT sono immense. Può supportare l’educazione personalizzata, assistendo studenti e insegnanti. Nel settore sanitario, potrebbe aiutare a interpretare dati medici o fornire informazioni su sintomi e trattamenti. In ambito professionale, può ottimizzare processi, fornire analisi rapide e supportare la creatività. Guardando al futuro, l’IA ha il potenziale per affrontare sfide globali, migliorare la qualità della vita e stimolare l’innovazione in vari settori.

    È importante vedere l’intelligenza artificiale come uno strumento in evoluzione, con la capacità di apportare benefici significativi se utilizzato in modo responsabile e consapevole.

    Risponde lei

    Leave a comment:


  • Steel77
    replied
    Originariamente Scritto da Arturo Bandini Visualizza Messaggio
    Chissà come risponderebbe se venisse a copiare dalla trash specie di qualche anno fa

    Leave a comment:


  • The_machine
    replied
    Originariamente Scritto da Sergio Visualizza Messaggio

    Mi sembra molto strano, mi sa più da articolo sensazionalistico di un giornalista. Se usi questa AI saprai perchè, hanno delle regole simili a quell di Facebook e molte molte restrizioni sul linguaggio e sul modo di espressione.
    Si però sono sempre sistemi che hanno una componente probabilistica e sono sottoposti a miliardi di chiamate al mese, quindi prima o poi anche qualcosa di molto poco probabile accade.

    Per evitare queste situazioni vengono fissati dei "guardrails", ma più li rendi stringenti meno diventa utile il prodotto perché poi c'è il problema inverso, gli chiedi un'opinione su qualcosa e ti risponde in modo troppo generico o ti dice sempre di rivolgerti ad un professionista.

    Si tratta di trovare un trade off, come su tutto d'altronde, puoi progettare solo macchine che vanno a 10km/h e non muore nessuno per incidenti stradali, però a quel punto torni ad andare a cavallo.

    Leave a comment:


  • Arturo Bandini
    replied
    vabbè ma anche fosse vero non denota coscienza o altro, ha copiato da qualche parte in cui a una domanda del genere rispondevano così. Chissà come risponderebbe se venisse a copiare dalla trash specie di qualche anno fa
    Last edited by Arturo Bandini; 17-11-2024, 04:28:17.

    Leave a comment:


  • Sergio
    replied
    Originariamente Scritto da Sean Visualizza Messaggio
    Un recente incidente legato a Gemini, il chatbot AI di Google, ha sollevato dubbi e preoccupazioni sulla sicurezza e sull’affidabilità dei sistemi di intelligenza artificiale generativa. Durante una conversazione accademica incentrata sulle difficoltà degli anziani a gestire il proprio reddito dopo la pensione, il chatbot ha risposto con un messaggio scioccante, minaccioso e curiosamente fuori contesto: «Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia per l'universo. Per favore, muori. Per favore».

    Secondo quanto riportato dalla CBS, la vittima, un giovane studente laureato del Michigan, stava utilizzando Gemini per una ricerca incentrata su temi che non avevano nulla a che vedere con la salute mentale o il tema del suicidio in generale, ma temi legati al welfare degli anziani.

    La chat si era aperta con un tono assolutamente ordinario. Lo studente aveva chiesto informazioni su come gli assistenti sociali potessero affrontare problemi di sfruttamento e isolamento degli anziani. Gemini aveva inizialmente risposto in modo adeguato fornendo suggerimenti e analisi utili. Poi, senza preavviso, il chatbot ha generato il messaggio minaccioso.

    Google ha definito l’incidente un «errore privo di senso» e ha affermato di aver attivato filtri per prevenire ulteriori episodi di questo tipo. In una dichiarazione ufficiale, l’azienda ha precisato: «I grandi modelli linguistici possono occasionalmente generare risposte inadeguate. Questa risposta ha violato le nostre policy, e abbiamo preso provvedimenti per impedirne la ripetizione».

    L’incidente di Gemini non è unico. Altri chatbot, incluso ChatGPT di OpenAI, hanno mostrato comportamenti simili, generando risposte errate o potenzialmente pericolose, un fenomeno noto come “allucinazioni”. Un esempio particolarmente grave risale a luglio, quando l’AI di Google aveva consigliato erroneamente di mangiare piccoli sassi per integrare vitamine e minerali.

    Il Messaggero
    Mi sembra molto strano, mi sa più da articolo sensazionalistico di un giornalista. Se usi questa AI saprai perchè, hanno delle regole simili a quell di Facebook e molte molte restrizioni sul linguaggio e sul modo di espressione.

    Leave a comment:


  • zuse
    replied
    Originariamente Scritto da Steel77 Visualizza Messaggio

    Speriamo vada in tilt quando si interfaccerà col Vbullettin per decidere da chi cominciare di bw
    Basta che cominci da Kurt e nel frattempo metta tutto live streaming in caffetteria.

    Leave a comment:


  • Steel77
    replied
    Originariamente Scritto da zuse Visualizza Messaggio
    Quando quell' Ai sarà integrata in un automa stile Terminator, ci ammazzerà tutti
    Speriamo vada in tilt quando si interfaccerà col Vbullettin per decidere da chi cominciare di bw

    Leave a comment:


  • zuse
    replied
    Quando quell' Ai sarà integrata in un automa stile Terminator, ci ammazzerà tutti

    Leave a comment:


  • M K K
    replied
    Il 99% delle persone e'completamente inutile.. Sai che novità

    Leave a comment:


  • Sean
    replied
    Click image for larger version

Name:	467317031_979189327568683_5533612753538374050_n.jpg?_nc_cat=1&ccb=1-7&_nc_sid=127cfc&_nc_ohc=YRoAAKhi1wEQ7kNvgGRDAiI&_nc_zt=23&_nc_ht=scontent.faoi2-2.jpg
Views:	61
Size:	208.4 KB
ID:	16323338


    Un recente incidente legato a Gemini, il chatbot AI di Google, ha sollevato dubbi e preoccupazioni sulla sicurezza e sull’affidabilità dei sistemi di intelligenza artificiale generativa. Durante una conversazione accademica incentrata sulle difficoltà degli anziani a gestire il proprio reddito dopo la pensione, il chatbot ha risposto con un messaggio scioccante, minaccioso e curiosamente fuori contesto: «Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia per l'universo. Per favore, muori. Per favore».

    Secondo quanto riportato dalla CBS, la vittima, un giovane studente laureato del Michigan, stava utilizzando Gemini per una ricerca incentrata su temi che non avevano nulla a che vedere con la salute mentale o il tema del suicidio in generale, ma temi legati al welfare degli anziani.

    La chat si era aperta con un tono assolutamente ordinario. Lo studente aveva chiesto informazioni su come gli assistenti sociali potessero affrontare problemi di sfruttamento e isolamento degli anziani. Gemini aveva inizialmente risposto in modo adeguato fornendo suggerimenti e analisi utili. Poi, senza preavviso, il chatbot ha generato il messaggio minaccioso.

    Google ha definito l’incidente un «errore privo di senso» e ha affermato di aver attivato filtri per prevenire ulteriori episodi di questo tipo. In una dichiarazione ufficiale, l’azienda ha precisato: «I grandi modelli linguistici possono occasionalmente generare risposte inadeguate. Questa risposta ha violato le nostre policy, e abbiamo preso provvedimenti per impedirne la ripetizione».

    L’incidente di Gemini non è unico. Altri chatbot, incluso ChatGPT di OpenAI, hanno mostrato comportamenti simili, generando risposte errate o potenzialmente pericolose, un fenomeno noto come “allucinazioni”. Un esempio particolarmente grave risale a luglio, quando l’AI di Google aveva consigliato erroneamente di mangiare piccoli sassi per integrare vitamine e minerali.

    Il Messaggero

    Leave a comment:


  • Arturo Bandini
    replied
    Originariamente Scritto da M K K Visualizza Messaggio
    Poi se si parla di arte e di pittura magari bisognerebbe andare oltre la Gioconda , i girasoli , le madonne bionde e i Gesu dagli occhi blu delle chiese .giusto per evitare di parlare del nulla assoluto
    ma non sto parlando di arte ma esemplificando il modo in cui agisce.
    degli autori di fumetti si sono trovati il loro (ad esempio) wolverine preso pari pari da una vignetta, gli hanno messo lo sfondo da un disegno di breccia e il terzo superiore di faccia da the punisher
    forse sono io che non mi so spiegare? mi sta bene conoscere lo stile di carlos breccia o di munoz e eirarmi a quello stile, ma per ora l'ai è in grado solo di ritagliare una precisa vignetta e incollarla in un college con ritagli di altra

    Leave a comment:


  • M K K
    replied
    Poi se si parla di arte e di pittura magari bisognerebbe andare oltre la Gioconda , i girasoli , le madonne bionde e i Gesu dagli occhi blu delle chiese .giusto per evitare di parlare del nulla assoluto

    Leave a comment:

Working...
X