Sulle nostre piattaforme, mettiamo la sicurezza e il benessere al primo posto. Dal 2006 collaboriamo con esperti nel settore della prevenzione dei suicidi per supportare la community di Meta.
Meta fornisce tecnologie per aiutare le persone a connettersi con risorse ed esperti che possono offrire aiuto. Il nostro hub Salute emotiva offre numerosi consigli e informazioni sulla salute mentale da parte di esperti. Qui troverai strumenti utili relativi a temi come suicidio, ansia, depressione e gestione del proprio benessere, sia per te che per chi ti sta vicino.
Gli esperti ritengono che stabilire un contatto con persone attente ai problemi di chi si trova in difficoltà possa aiutare a prevenire i suicidi. Meta può rendere possibile questa connessione e indirizzarti a risorse che forniscono supporto e competenze necessarie per la prevenzione dei suicidi. Che tu stia vivendo un momento di difficoltà o che ti preoccupi per la situazione di qualcun altro, speriamo che queste risorse ti siano d'aiuto.

Se stai passando un periodo difficile, sappi che siamo qui per darti il nostro supporto. Possiamo metterti in contatto con persone che possono aiutarti.

Puoi fornire un supporto fondamentale a un amico o familiare in difficoltà. Leggi i consigli degli esperti sulla prevenzione dei suicidi e scopri cosa puoi fare.
Una linea di assistenza per i suicidi può offrire a te o a un amico un contatto immediato. Quando si è in difficoltà, contattare un esperto può fare una grande differenza. Rivolgiti a una linea di assistenza locale nel tuo Paese per ricevere aiuto.
Grazie alle relazioni che Meta contribuisce a sviluppare, possiamo aiutare le persone in difficoltà a mettersi in contatto con amici ed esperti competenti, che possono fornire loro supporto. Nel mondo, ogni 40 secondi si verifica una morte per suicidio. Tra le persone di età compresa tra 15 e 29 anni, si tratta della seconda causa di morte. Lo strumento migliore per prevenire i suicidi è rappresentato dalle connessioni significative e noi di Meta vogliamo contribuire a questa soluzione.
Dal 2006, appena 2 anni dopo il lancio della piattaforma allora chiamata Facebook, avvenuto nel 2004, lavoriamo con esperti nel settore della prevenzione dei suicidi e della sicurezza per supportare le community nelle app di Meta. Continuiamo a collaborare regolarmente con questi esperti e a raccogliere le indicazioni provenienti dagli studi e dalle best practice attuali, per garantire che la sicurezza e il benessere della nostra community siano sempre al primo posto.

La sicurezza della nostra community è estremamente importante per noi. Grazie ai consigli degli esperti, definiamo Normative che stabiliscono cosa è consentito e cosa non lo è su Facebook e Instagram. Non abbiamo mai consentito alle persone di celebrare o promuovere l'autolesionismo o il suicidio; rimuoviamo inoltre le rappresentazioni fittizie di atti di questo tipo, nonché contenuti che mostrano metodi o materiali correlati. Consentiamo tuttavia alle persone di discutere di suicidio e autolesionismo, perché desideriamo che Facebook e Instagram siano spazi in cui le persone possano condividere le proprie esperienze, sensibilizzare gli altri in merito e offrirsi sostegno a vicenda. Sebbene offriamo alle persone la possibilità di condividere contenuti sulle proprie esperienze in relazione a questi temi, sfruttiamo la tecnologia per fare in modo che questi atti non vengano incoraggiati. Mostriamo inoltre un messaggio con un'offerta di aiuto a chiunque faccia una ricerca usando termini correlati al suicidio o all'autolesionismo e, quando veniamo a conoscenza che una persona ha pubblicato un contenuto relativo a questi temi, mettiamo a sua disposizione risorse utili e la reindirizziamo a organizzazioni locali che possano aiutarla.
Collaboriamo costantemente con esperti a livello globale per trovare il giusto equilibrio tra offrire alle persone la possibilità di condividere le loro esperienze e cercare supporto e proteggere gli altri da contenuti potenzialmente dannosi.
Per Meta la sicurezza è fondamentale ai fini dello sviluppo dell'IA. Adottiamo misure di sicurezza efficaci per tutelare gli utenti da contenuti pericolosi relativi a suicidio e autolesionismo. Inoltre, le nostre Normative vietano severamente alle IA di generare contenuti che consentono, incoraggiano o supportano suicidio e autolesionismo in qualsiasi forma. Abbiamo adottato misure di sicurezza ancora più rigide per i teenager, tra cui filtri dei contenuti migliorati.
I nostri modelli di IA sono addestrati per riconoscere quando qualcuno potrebbe considerare l'idea di suicidio o autolesionismo. In questi casi, abbiamo progettato le nostre IA per dare priorità alla sicurezza degli utenti, indicando loro risorse affidabili, come linee di assistenza e organizzazioni professionali, da cui possono ricevere supporto. Queste misure di sicurezza si applicano ogni volta che gli utenti interagiscono con l'IA sulle nostre app ed eseguiamo controlli con l'aiuto di esperti in salute mentale per assicurarci che siano il più efficaci possibile.
Quando una persona esprime pensieri suicidi, offrirle aiuto il prima possibile può essere fondamentale. Su Facebook e Instagram sono disponibili risorse sulla prevenzione dei suicidi. Queste risorse, sviluppate insieme alle principali organizzazioni che si occupano di salute mentale e grazie al contributo apportato dalle esperienze di chi ha vissuto questa situazione in prima persona, ci aiutano a migliorare costantemente la nostra risposta.
Instagram informa i genitori che usano la supervisione se i figli teenager cercano ripetutamente, in un breve periodo di tempo, termini correlati a suicidio o autolesionismo. La maggior parte dei teenager non cerca contenuti correlati a suicidio e autolesionismo su Instagram e, quando lo fa, la nostra Normativa prevede il blocco di queste ricerche e l'indicazione di risorse e linee di assistenza a cui rivolgersi per ricevere aiuto. Questi avvisi sono pensati per informare i genitori quando i figli teenager cercano ripetutamente questi contenuti e fornire loro le risorse necessarie per sostenerli.
Grazie all'apprendimento automatico, Meta ha ampliato la propria capacità di identificare potenziali contenuti che fanno riferimento al suicidio o all'autolesionismo; in molti Paesi siamo in grado di usare questa tecnologia per aiutare in maniera tempestiva chi si trova in difficoltà. Questa tecnologia usa segnali di riconoscimento dei modelli di comportamento, ad esempio frasi e commenti che destano preoccupazione, per identificare possibili situazioni difficili.
Usiamo l'intelligenza artificiale per definire l'ordine in cui il nostro team controlla post, video e contenuti in diretta streaming segnalati. In questo modo, possiamo applicare in modo efficiente le nostre Normative e fornire rapidamente alle persone le risorse necessarie. L'intelligenza artificiale permette inoltre ai nostri revisori di dare priorità ai post più urgenti e di valutarli, con la possibilità di contattare i servizi per le emergenze nel caso in cui i membri della nostra community siano in pericolo. La velocità è fondamentale.
Sfruttando la tecnologia per dare priorità alle segnalazioni e semplificarle, possiamo inoltrare i contenuti al nostro team Community Operations. Quest'ultimo è in grado di decidere rapidamente se sono presenti violazioni delle Normative e se consigliare di avvisare gli operatori locali per le emergenze. Continueremo a investire nella tecnologia per migliorare sempre di più il supporto alla nostra community.
Gli utenti di Meta possono segnalare i post che ritengono riguardare una persona che sta pensando al suicidio. I membri qualificati del nostro team Community Operations controllano queste segnalazioni e possono eventualmente mettere in contatto la persona che ha pubblicato il post con le risorse di assistenza. Quando riteniamo che vi sia un immediato pericolo, avvisiamo gli operatori di primo soccorso o i servizi per le emergenze, affinché possano fare le dovute verifiche: queste azioni hanno salvato delle vite.
La tecnologia di Meta per identificare possibili casi di suicidio e autolesionismo è integrata sia nei post che nei video in diretta di Facebook e Instagram. Se una persona in un video in diretta sembra voler commettere atti di autolesionismo, le persone che guardano il video possono contattare direttamente quella persona e segnalare il contenuto.
Che un post venga segnalato da un amico o familiare preoccupato o venga identificato dalla tecnologia di apprendimento automatico, il passaggio successivo è lo stesso: la fase di controllo. Un membro del team Community Operations verifica se la segnalazione rivela un rischio imminente di autolesionismo o una violazione delle Normative. In casi gravi, collaboriamo con i servizi per le emergenze per verificare il benessere della persona in questione. Grazie alle tecnologie di Meta abbiamo aiutato il personale di primo intervento a mettersi rapidamente in contatto con le persone in difficoltà.
"Quando una persona fa riferimento al suicidio, dà ai familiari, agli amici e persino a Facebook e Instagram la possibilità di intervenire. Se le persone non riescono a condividere il proprio dolore, oppure se questo viene condiviso e poi rimosso, perdiamo la possibilità di salvare la vita di qualcuno. Formiamo persone specifiche affinché rilevino questi segnali nelle conversazioni e incoraggino le persone interessate a parlare. Siamo consapevoli, infatti, che in questo modo possiamo aiutarle a superare una crisi. I social media ci consentono di farlo e di aiutare molte persone in modo velocissimo."
Daniel J. Reidenberg, Psy.D., FAPA, Executive Director, Save.org
"La salute mentale e i pensieri suicidi non sono un argomento di cui parliamo APERTAMENTE. Eppure, parlare ed entrare in connessione con gli altri è fondamentale per prevenire i casi di depressione e suicidio. Gli strumenti che Facebook sta implementando sono rivolti sia alle persone che esprimono pensieri con tendenze suicide che agli amici e ai familiari preoccupati e forniscono loro risorse, alternative e possibilità di intervento appropriate."
Anna Chandy, Chairperson - Trustees, The Live Love Laugh Foundation - India
"La Finnish Association for Mental Health è lieta di collaborare con Facebook per fornire assistenza e risorse alle persone che si sentono vulnerabili e a rischio di suicidio, nonché ai loro cari. Poter contare su questo supporto è importante, perché quando sono in difficoltà le persone spesso non hanno la forza né il coraggio di cercare aiuto. Per loro può essere difficile persino rendersi conto di avere bisogno di supporto. Disporre di risorse e dati di contatto degli esperti nella propria lingua è fondamentale per chi si trova in difficoltà."
Satu Raappana-Jokinen, Manager of Online Crises Services, The Finnish Association for Mental Health
"Qualunque iniziativa permetta di sensibilizzare le persone e prevenire il suicidio è fondamentale per ridurre le tragiche statistiche per cui un brasiliano muore ogni 45 minuti per questo motivo. Alcune persone possono individuare segnali di pensieri suicidi in un amico, ma non sanno come aiutarlo. In questi casi, strumenti come quello implementato da Facebook in Brasile possono aiutare direttamente e indirettamente la causa sposata da CVV più di 50 anni fa e fungono da modello per altre organizzazioni al fine di superare i tabù e dare vita ad altre iniziative in questo ambito."
Carlos Correia, Volunteer, Centro de Valorização da Vida - Brasile