AI accessibile
Cosa copriamo in AI accessibile
Per chi non vede, l'intelligenza artificiale multimodale ha riscritto in tre anni quello che hardware dedicati e screen reader avevano costruito in trenta. Be My Eyes con Be My AI, ChatGPT con Vision, Gemini Live, Claude Vision, Apple Intelligence: descrivere il mondo a voce è diventato il nuovo modo di guardare. Non sempre è meglio. Quasi mai senza pagare un prezzo in privacy o accuratezza.
In questa sezione testiamo le AI sul terreno reale italiano. Stessa scena (un menù di trattoria, una bolletta Enel, una scatola di farmaco, una banconota), strumenti diversi (Be My AI, Seeing AI, ChatGPT Vision, Gemini, Ray-Ban Meta), risultati confrontati. Pubblichiamo metodologia e prompt: il lavoro deve essere riproducibile, non aneddotico.
Copriamo anche il lato del dato: dove finiscono le foto che mandi a Be My AI, cosa elabora on-device Apple Intelligence vs cosa va in cloud, le scelte di Anthropic e OpenAI sulla retention. La privacy di chi non vede è una questione politica, non un fastidio tecnico: davanti a un'AI che descrive «la persona davanti a te» c'è il tema del consenso di chi è descritto.
Pubblichiamo guide pratiche: scorciatoie per attivare Be My AI con un solo gesto su iPhone, come configurare Gemini Live in italiano, quando un assistente vocale italiano sintetico funziona meglio di uno multimodale «intelligente». Se hai un compito quotidiano in cui l'AI ti aiuta o ti tradisce, scrivici a redazione@tecnoaccess.it.