L’IA non si assume responsabilità. La responsabilità è dell’uomo.

Sono passato alla Evo Kitchen per montare quella mensola “famosa”.
Le reggimensola Goriki Island che il cliente ha comprato costano circa 15.000 yen a coppia.
Quindi ho preparato una mensola in tavola unica di frassino (tamo) che non sfigurasse affatto rispetto a quelle.
Ehi… mi sono accorto che anche le placche degli interruttori erano Goriki già da quando la casa è stata costruita.
Allora sì, quelle vanno abbinate… scusa! (lol)

Montata alla grandeーー。
Penso di chiedere 10.000 yen tra materiale e manodopera (super economico).
Però… una mensolina del genere, in totale 25.000 yen……
Quando fai una cucina “bella”, non puoi mica metterci una mensola economica da centro fai-da-te…
È dura, eh (lol)
Visto che il silicone tra top cucina e piastrelle era staccato, ho avvisato il subappaltatore.

Il libro sull’AI era tosto, ma ho fatto il bravo e l’ho letto fino in fondo.
L’AI non si assume responsabilità. La responsabilità è dell’essere umano.
Se un robot cameriere ti rovescia addosso ramen bollente, lui fa finta di niente. Se con l’AI in edilizia una casa viene storta, o con la guida AI investi qualcuno, è la stessa storia: alla fine, quello che ha detto “OK” è quello che se la prende in faccia.
Perciò quel libro non dice “fine dei colletti bianchi”, ma che sopravvive chi ha ‘boss-ryoku’ (forza da capo) = chi è capace di portarsi addosso la responsabilità.
L’era del DX (digital transformation) che ha fallito evolve nell’era dell’AX (AI transformation).
In effetti, col DX c’era un problema: sopra i quadri intermedi, quelli che dovevano “decidere” erano generazione fax e cellulare a conchiglia, quindi era dura.
Con l’AI invece molti si convinceranno di essere tipo “un miliardo di laureati a Tokyo”… e magari davvero arriverà un’epoca del genere.
Finora certi capi scappavano dicendo “è colpa dei subordinati”, ma con l’AI “è colpa dell’AI” non passerà: è colpa tua che non hai verificato.
Soprattutto chi ha qualifiche e senso di responsabilità alla fine ricontrolla tutto, quindi potrebbe diventare più veloce fare da sé… e l’AI finisce per essere d’intralcio.
Ultimamente spuntano ovunque venditori di “prodotti AI”, ma è ovvio che la responsabilità è del progettista/utente che la usa: il venditore non si assume niente.
È come certi consulenti di management che parlano come se sapessero tutto, succhiano soldi, e anche se l’azienda fallisce non si assumono responsabilità.
E i capi “nativi da garakei” (telefono a conchiglia) — (ormai hanno uno smartphone, ma lo usano solo per telefonare e guardare immagini di tette) — si convinceranno che “è comodissimo” e la useranno con leggerezza, finendo per causare disastri.
“Ah sì, quello lo so, certo” e poi si girano e lo chiedono all’AI. Per loro la forza è sempre stata il bluff del “so tutto”.
Usare l’AI come strumento, oppure per dipendenza buttarle addosso report e lavoro e diventare ancora più stupidi.
L’AI è come una chiodatrice: è più veloce che piantare chiodi a mano, ma se sbagli, sfondi il vetro del vicino.
Alla fine è una lotta tra costi/tempo e rischio. Più cerchi di fare il furbo e risparmiare fatica, più aumenta il rischio.
L’AI è un modello di inferenza: è brava a “indovinare” la risposta corretta. È uno strumento che fruga il web e parla in modo convincente pescando “informazioni di seconda mano”.
E poi quelle informazioni vengono rimescolate e ricopiate dall’AI: terza, quarta mano… sempre più lontane dal reale. Nel mondo dell’AI oggi si parla spesso di “collasso del modello (Model Collapse)”.
L’AI è “uno che non ha mai piantato un chiodo, però sa come si fa”.
Questo qui si schiaccia le dita al 100% (lol)
Tema: relazione di lettura da parte di un NEET♪









