Mainly Internet business, but also life mysteries and videogames

Categoria: Internet e Business (Pagina 1 di 6)

I Miei Post basati su qualche forma di ragionamento e di esperienza

Tabella Riassuntiva Cashback di Stato

PeriodoCashbackLimitiPagamentoCondizioniSuper Cashback
Dic2010% della spesa,
max 15€ per operazione
Max 10,
quindi max 150€
Feb21A chi fa almeno 10 operazioni in 1 meseNo
GEN21-GIU2110% della spesa,
max 15€ per operazione
Max 10,
quindi max 150€
Ago21A chi fa almeno 50 operazioni in 6 mesiSe sei tra i primi 100,000
come numero di operazioni,
+1500€
LUG21-DIC2110% della spesa,
max 15€ per operazione
Max 10,
quindi max 150€
Feb22A chi fa almeno 50 operazioni in 6 mesiSe sei tra i primi 100,000
come numero di operazioni,
+1500€
GEN22-GIU2210% della spesa,
max 15€ per operazione
Max 10,
quindi max 150€
Ago22A chi fa almeno 50 operazioni in 6 mesiSe sei tra i primi 100,000
come numero di operazioni,
+1500€
LUG22-DIC22RimossoRimossoRimossoRimosso
source: www.cashback-italia.it

(decreto attuativo 27 novembre 2020)

Eclusi: Professionisti Artigiani e Imprese, pagamenti online, minorenni, non residenti in Italia

Richiesto: pagamento elettronico in negozio fisico, App IO (attivata con SPID o CIE), oppure Codice Fiscale per i sistemi alternativi di PagoPa. IBAN va indicato anche in una fase successiva, non obbligatorio subito. Mostrare il QR code alla cassa.

Inizio: 8 dicembre 2020

Rischi: se il budget del governo si esaurisce prima del previsto, tutti gli importi vengono ridotti proporzionalmente. 227,9 milioni per Dicembre 2020, 1,75 miliardi di € per il 2021 e 3 miliardi di € per il 2022.

Negozianti: assicuratevi di verificare di avere aderito al programma del governo con il vostro registratore di cassa.

Riferimento: https://it.bestshopping.com/recensioni/2020/10/23/cashback-stato-cose-come-funziona/

GDPR e Privacy Madness

Scusate, ma è una mia impressione o il mondo online fino a oggi ha sempre fatto quello che voleva con i nostri dati?

GDPR, Privacy, Cookie, Europa, Facebook, follia – Ho la netta sensazione che nessuno abbia mai rispettato la privacy di cui i singoli siti vanno cianciando nel loro footer e nelle loro terms&conditions. Tante belle parole, anzi parolone incomprensibili, qualche link a policy esterne di siti ai più sconosciuti ma che ci tracciano dalla mattina alla sera, ma alla fine poco di quello che viene recitato veniva fatto.

GDPR Sei pronto? - foto

Partiamo dal numero di e-mail che in questi giorni ognuno di noi sta ricevendo da OGNI sito americano a cui si è iscritto. Solo da Google ho ricevuto così tanti avvisi di modifiche della privacy [action required] che alla fine la stessa Gmail ha messo in SPAM le mail di google sulla privacy!

Twitter, Linkedin, Yahoo, Youtube, Twitch, addirittura WordPress per non parlare di Facebbok, i fautori dell’innovazione del Web, i “grandi” della rete che la maggior parte di noi scambia per paladini della giustizia e della libertà di parola sono paradossalmente quelli che più han dovuto mettersi a posto. Eccesso di zelo o menefreghismo totale della privacy fino ad oggi?

ATTENZIONE, QUI DIETROLOGIA ANTI-GOOGLE — Tra l’altro caro Google, mi hai mandato un link di modifiche della privacy che poi puntava ai tuoi sistemi interni. Un errore certo, ma che dimostra quanto chaos ci sia anche da voi. Per non parlare della pagina che mi appariva, chiamata UBER PROXY, un super cancello praticamente, quindi più potente della login normale che c’è su google — come dire, che è vero che c’è una login per i comuni mortali che usano goolge, ma qualcuno da dentro google e grazie all’UBER LOGIN può loggarsi e scavalcare i terms&conditions dei servizi e guardare le mie foto o la mia gmail senza che ne abbia davvero il permesso. Per la serie, Google not uber evil.

TI STIAMO TRACCIANDO CON I COOKIE — Tornando al GDPR, ora la follia è esasperante. Per anni l’Europa dalla sua grande intelligenza ci ha sempre dettato regole migliori di quelle americane — questo è certo –, ma ora noi paghiamo anche i loro sbagli, come sempre. Certo l’Europa non è diventata un faro di civiltà per la privacy online da quando la loro più grande rivoluzione è stata quella di obbligare tutti a dire che … esistono i cookie! Ma va? E dire che con i cookie ti seguono e ti spiano. Davvero? E allora?

Intanto non è con i cookie che hanno spiato 70 milioni di utenti di Facebook, non è con i cookie che Google ti prende di mira con la pubblicità o che twitter ti riconosce mentre navighi. Se dobbiamo avvisare gli utenti dei cookie, allora vanno avvisati anche per gli IP, per il Referer, per lo User Agent, per il Browser Local Storage, per la Session Storage.

Ma intanto ogni sito è diventato un popup-spam di avviso sui cookie che se anche non accetti, navighi lo stesso, ma se hai la sfortuna di essere con un cellulare il sito rischia di essere la peggiore web experience della tua vita tra popup e banner che si aprono prima di poter fare quello che una volta si poteva fare senza intralci.

EUROPA 1 USA 0 — Un fatto. Una mail in un sito web americano vuol dire che la tua email è sicuramente rivenduta o spammata, soprattutto in aziende poco serie o poco controllate. Basta un sito di Web hosting economico, qualche sito di registrazione domini da 5$, qualche sito per scaricare delle ricerche e la vostra mail sarà sicuramente in giro per sempre. Fa parte della privacy americana. Gli USA han sempre confuso la privacy europea con il fatto di avere dei server sicuri. Ti dicono che i tuoi dati sono al sicuro, da noi significa che abbiamo fatto le cose per bene sia tecnicamente ma anche legalmente, da loro vale solo la prima parte. Vuoi esercitare la cancellazione dei dati? da noi è sicuro poterlo fare, in USA questo aspetto è sempre stato aleatorio, anzi a volte le risposte sono pure arroganti del tipo “we do what we want.”

EUROPA 2 USA 0 — Poi improvvisamente il mondo capisce di doversi regolamentare. Ovviamente è troppo difficile usare le regole Europee e certo non siamo noi capaci di imporci. In pochissimo tempo gli USA scoprono che forse è meglio che i minorenni… facciano i minorenni anche sul web, perché non si capisce il motivo per cui sei minorenne per andare al cinema, ma non lo sei per andare su whatsapp. Gli USA scoprono anche che se qualcuno è coinvolto in violazioni della privacy è difficile risalire ai responsabili. Da noi questa cosa è invece sempre stata chiara da sempre. Per non dire che da noi è obbligatorio apporre Partita Iva nei footer dei siti e che essendo l’EUROPA un insieme di Nazioni sovrane, ci siamo sempre chiesti che cosa succede se il nostro nome venga salvato nei server della Germania. Per gli USA invece, credendo in un unico dio se stessi al mondo, non si sono mai posti questi problemi e una volta che i server erano sicuri, tutto era a posto.

SCARY FACEBOOK E L’ALIENO — Ovviamente avete visto tutti l’alieno Mark (ndr: Zuckember CEO di Facebook) tra gli umani senatori americani. Qualcuno dei senatori ha usato quasi tutto il suo tempo a disposizione per dare la colpa della sua strana domanda a sua figlia di 14 anni che indirettamente avrebbe sentito a scuola da compagni che se si sta fermi davanti a facebook a parlare tra amici, la pubblicità cambierebbe da sola in base a quello che si dice. Dopo 3 minuti per articolare questa osservazione finalmente il senatore pone la domanda: “Quindi è vero che facebook analizza le voci per cambiare la pubblicità che vediamo?”. L’alieno Mark che già dalla prima parola pronunciata dal senatore sa quanto ridicola sarebbe stata questa domanda, fissa per 2 infiniti secondi il senatore, poi con lo sguardo da terminator senza sudore e senza sforzo alcuno, si avvicina al microfono in un movimento perfettamente controllato e dice “No“. Ripete il movimento meccanico al contrario, si appoggia al dorso della sedia ed è pronto a passare alla domanda successiva.

L’esito del terzo (quarto e quinto) grado a Facebook è stata l’evidenza di come un governo potente come quello degli USA non sapesse assolutamente nulla di Facebook, non avesse alcun modo di controllarlo e soprattutto di come poterlo controllare in futuro. Soltanto quando alcuni senatori si sono rifatti alla privacy Europea, al limite dei 16 anni, all’oblio dei dati, finalmente si stava definendo qualcosa di utile.

CAMBIAMENTI GRAZIE ALL’ARRIVO DEL GDPR — Una cosa è certa, la violazione degli account di Facebook è capitata proprio poco prima dell’entrata in vigore del GDPR, una coincidenza che ha esponenzialmente aumentato l’importanza dell’entrata in vigore della nuova regolamentazione sui dati. Indipendentemente dagli aspetti legali del GDPR i quali, onestamente parlando, per noi europei sono normali e in gran parte già disciplinati se la regolamentazione precedente fosse stata applicata con cura dagli operatori, l’effetto che sta avendo sulle società costruite un pò sulla logica americana — visto che anche società Europee ma multinazionali peccano di errori gravi — è solo che positiva. Certo questo incide chiunque, anche chi è già a posto, e ci sarà così tanta confusione (e spam mail e spam regole) che alla fine non sarà tutto fatto come si deve, ma almeno un bel livello di sporcizia, soprattutto americana, sarà stata lavata via.

Ma è ancora troppo presto per dire che il mondo si è accorto di dover proteggere per bene gli utenti. O forse non lo vuole fare per davvero; in fin dei conti ha bisogno che qualche tuo dato circoli in giro per bene.

 

 

 

 

 

Apple Mail El Capitan SMTP’s gone crazy! How to fix.

 

 

If you just upgraded to El Capitan Mac OS X, you may have expected a better Apple Mail.

AppLanding_Mail

While a better Apple mail is not what Apple has got to deliver us as priority (oh Eudora I miss you), there are worst things you may bump into as soon as you open Apple Mail with El Capitan the first time: all configured email accounts got SMTP settings mixed up! In fact, when you try to send an email, Apple Mail uses a random unconfigured SMTP server of your list. And everything was working perfectly before upgrading!

If you try to re-configure them by selecting each email account under Apple Mail -> Preferences -> Accounts and by setting back the correct Outgoing Mail Server (SMTP) using the pull down menu, well, they just don’t get saved and they keep on being unassigned.

Also my emails are all getting the lastest SMTP I configure despite the previous one I saved was different.

After some tries, I found out a solution to bring the SMTP’s back to work.

When you open the SMTP Pull Down menu for each email account you are going to fix, be sure to CHANGE THE NAME in the Description Field. This forces Apple Mail to re-write the entry plist xml file for that account, fixing it.

Screen Shot 2015-10-01 at 20.47.03

So open each SMTP entry, change the value in the Description field with a new one, close to save and you’re back with a working smtp Apple Mail in El Capitan.

Happy (Apple) Mail again!

 

Update 24 Oct 2015 El Capitan 10.11.1 seems to address this smtp issue.

fixed-smtp

 

Da HTTP a HTTPS: server e sitemap

Recentemente abbiamo deciso di portare l’intero sito web da http ad https per via di alcune integrazioni che funzionano solo in https e per i recenti cambiamenti annunciati da Gogol (così come Google fu chiamato in tempi recenti dai alcuni nostri politici) sulla valutazione dei siti sicuri rispetto a quelli non sicuri a favore dei primi.

Al fine di evitare alcune gravi disattenzioni ho deciso di elencare qui i problemi più gravi in cui si può incorrere.

businessman in suit https

IL PROTOCOLLO HTTPS – Il primo problema è legato a come funziona il protocollo HTTPS.

Quando ci si collega al sito www.pizza.it, il protocollo HTTP (quello non sicuro di sempre) contatta il server del sito, comunica al server che cerca www.pizza.it e, se il server lo trova, lo negozia con successo e rende visibile il sito web.

Quando ci si collega al sito https://www.pizza.it, il protocollo HTTPS (quello sicuro) contatta il server del sito e comunica che c’è in arrivo una connessione sicura ma non dice niente altro a meno che il server risponda anche lui in modo sicuro. Il server allora cerca la prima configurazione sicura che conosce e da lì in poi può proseguire la negoziazione in modo sicuro con l’utente. A questo punto gli viene annunciato che si vuole www.pizza.it. Se www.pizza.it non c’è sul server, il server continua comunque a servire la prima configurazione sicura che aveva usato per comunicare, indipendentemente dal sito a cui appartenga.

In questo caso, per evitare che due siti di un stesso server, 1 sicuro e 1 no, si confondano e il secondo appaia come il primo, anche se non esiste in modalità sicura, si creano sul server delle configurazione sicure inutili (di default) affinché il server usi sempre quella per dialogare in https e affinché si blocchi nel caso il sito non esista (una trappola, praticamente).

Tale processo può fallire per i browser che non supportano la modalità di dialogo multipla su https, e può fallire per alcuni bot/spider non aggiornati e soprattutto può essere mandata online in modo errato, senza accorgersene.

TIP 1. HTTPS ON MULTIPLE VIRTUAL HOSTS ISSUE

Una volta configurato HTTPS su di un server che ospita più domini, controllate che la URL di un sito dello stesso server (e che NON sia https) non appaia comunque quando digitate la url con https, perché potrebbe non essere voluto e potreste trovarvi il vostro sito sicuro sotto la url di un’altra persona (cioè vedreste il contenuto di www.pizza.it apparire sotto https://www.mozzarella.com)! Il browser mostrerebbe errori sul certificato, ma bot di indicizzazione come il googlebot leggerebbero il sito generando nel tempo un problema di contenuto duplicato.

Dovete quindi creare il server SSL di default in cui intrappolare queste connessioni (tecnicamente sono delle “SERVER BLOCK” per virtual host apache2 o ngnix, ad es. in apache si configura un virtual host *:443 con “SSLStrictSNIVHostCheck on” default tale che dia un errore 444), ma se non potete modificare il setup del server, allora nell’header del vostro sito sicuro, inserite un controllo lato pagina web che blocchi ogni connessione che arriva e che sia all’infuori del dominio https che vi aspettate.

In PHP, se il vostro sito sicuro è https://www.pizza.it allora aggiungete:

if (isset( $_SERVER['SSL_TLS_SNI'] ))
{
if ($_SERVER['SSL_TLS_SNI'] !== 'www.pizza.it')
{
// uh, sto servendo un dominio diverso dal mio, bloccare!
header('HTTP/1.0 444 No Response');
header('Connection: close');
exit;
}
}

In mod_perl2 (se lo usate), il controllo nella sub{} sarebbe:


return Apache2::Const::NOT_FOUND if (($r->headers_in->{ 'SSL_TLS_SNI' } || 'www.pizza.it') ne 'www.pizza.it');

Il secondo controllo da fare riguarda invece le sitemap.

TIP 2. SITEMAPS, GOOGLE BOT e CANONICAL URLs da HTTP a HTTPS.

Se il problema principale di una misconfigurazione server come da punto 1 vi sembra grave, allora si può provocare un danno maggiore con le sitemap di un sito che cambia da http a https.

Che cosa succede infatti con il passaggio da http ad https con le sitemap e Googlebot? Che cosa fa Google nei proprio indici? Che pagine leggerà? Http o https? CHE COSA farà?

INDIPENDENTEMENTE da tutto quello che leggerete sui siti web, intanto GOOGLE deciderà spontaneamente di mostrare le vostre nuove pagine HTTPS anche quando gli starete passando SITEMAP con URL in http. Questo perché è una scelta di Google di spostarsi su https appena una pagina diventa disponibile con tale protocollo.

CANONICAL URL DISASTER – Il primo DISASTRO è che se passate in https e se per caso il vostro sito continua ad indicare url canoniche in http, allora su google le pagine saranno sostituite da pagine https, ma il canonico della pagina tenterà di invalidare la scelta di google, facendo piano piano perdere la visibilità della pagina, fino anche alla scomparsa stessa della pagina dai risultati di ricerca.

Per risolvere questo problema, la soluzione migliore è la seguente.

Mandato live il sito in HTTPS, creiamo sitemaps per tutte le URL in HTTPS da inviare a Google con il webmaster tools. Non vogliamo togliere le sitemap con le URL http ad oggi esistenti; queste servono per preservare l’indicizzazione precedente, ma poco dopo andranno dismesse.
Eliminiamo eventuali canonical url HTTP per trasformarle in HTTPS, oppure rimuoverle del tutto e inserire Redirect 301 lato codice verso le pagine https.
Lasciare che GOOGLE legga le url nell’indice HTTPS. A queto punto potete smettere di generare le SITEMAP in HTTP. Il webmaster tools (search console) che si usa per vedere lo stato di indicizzazione da parte di Google NON è lo stesso! Dovete aggiungere il sito con il dominio HTTPS in webmaster tools o vi perderete le statistiche sul nuovo sito! Il vantaggio di farlo dove c’è già configurato il sito http è che viene aggiunto SUBITO senza chiedervi la verifica di possesso del sito.

Attenzione, se non dite che le pagine HTTP sono diventate HTTPS con un 301 o con una tag canonical, rischiate di duplicare i contenuti e di duplicare il numero di pagine da leggere da parte del googlebot, perdendo quindi anche potenza di banda (numero di pagine lette al giorno).

Fatto questo dovete aspettare che piano piano Google vi porti al 100% in HTTPS (molto veloce). La velocità di lettura delle pagine da parte del googlebot non rallenta il cambio da http in https nelle pagine di ricerca, poichè il canonical o il 301 accelerano il processo indipendentemente dalle sitemap.

Happy HTTPS.

P.S. Se avete caricato un file nel disavow tool di Google per il sito http, ricordatevi che dovete ricaricarlo anche per il sito HTTPS perchè non viene trasferito da Google in automatico, anzi, rischiate di partire con un sito “nuovo” https già zoppicando.

Google, non è ora di buttare il Pagerank?

Il PageRank è uno degli algoritmi del motore di ricerca di Google, utilizzati per dare rilevanza ai risultati di ricerca. Alle origini di Google, fu il solo e unico algoritmo creato dai due fondatori (Brin e Page appunto), sufficientemente innovativo da sbaragliare in poco tempo TUTTI gli altri motori di ricerca.

SEO Backlinks Pagerank image

A causa del successo di Google, mentre gli utenti erano sempre più felici di poter usare un motore così innovativo, dall’altra gli operatori del settore si ingegnavano a cercare modi per apparire in cima ai risultati. Poichè l’elemento principale della formula del PageRank è il “link”, chi ti linka, chi tu linki e come ti linkano, gli operatori del settore vollero sperimentare QUALUNQUE sistema (lecito ed illecito) per imborgliare il sistema di Google.

LE DUE FASI DI GOOGLE, DIFFONDERE E NASCONDERE — A pochi anni dal lancio di Google, il PageRank divenne il punto di riferimento per stabilire il successo di ogni sito Web. Sistemi come Alexa passarono subito in secondo piano, benché comunque autorevoli. Oggi, ogni sito web ha associato un numero che indica quanto si è autorevoli agli occhi di Google.

LA FOLLIA, LINKIAMOCI TUTTI — In questa fase di adozione del PageRank da parte di ogni Webmaster e operatore web, Google creò ad esempio la toolbar con la quale si permetteva di vedere il PageRank dei siti. In questi anni di cecità del Web, il mondo si popolò di Siti di Directory, Siti per Scambio Link, Siti con Footer simili alle Pagine Gialle, Siti pieni di Pagine e queste Pagine piene di Link, Link nelle firme, link camuffati, link dalle immagini, link in pagine nascoste, link di link di link, tutto per aumentare il PageRank dei siti linkati.

Come una falla in una petroliera carica e fuori controllo, Google interviene e introduce una serie di modifiche agli algoritmi della rilevanza che mitigano (a dire di Google) l’importanza del PageRank. Ma il Web degli operatori non ci crede, e mentre Google progetta e manifesta sistemi di confusione di massa, i link continuano a rimanere il caposaldo della rilevanza e, imperterriti, aumentano con tecniche nuove; link nascosti, link dai blog, link dai blog post, blog di link, link nei template, link dei link dei link dei link, siti di contenuti poveri, ma di link autentici, schemi di link, link dai Social, Siti cammuffati da Social, link hackerati, link rubati, link ovunque pur di far salire il PageRank.

E non serve nemmeno che Google rallenti la pubblicazione delle informazioni sul PageRank, poichè nel frattempo invece di un blog, gli operatori fanno 10 blog, invece di 1 articolo, fanno 100 articoli tutti uguali per chi legge, magari diversi per Google, invece di pagare uno sviluppatore, pagano degli hackers russi per far modificare WordPress di altri e nasconderci dei link. Poichè ogni cosa che appare sul Web diventa una copia di una copia di una copia (sempre per nasconderci un link da qualche parte), Google progetta armi di difesa chiamate “Panda” e “Penguin” (e chissà quanti altri animali farà diventare antipatici) per vanificare le copie di un blog, gli schemi di link, le pagine inutili con solo link, le pagine belle con solo 1 link, e ogni tanto, è inevitabile, qualche sito innocente rimane colpito (dopo tutto è una guerra).

LE VITTIME DI GUERRA — I siti innocenti, vittime della guerra degli animali di Google versus il mondo degli operatori del Web, sono dapprima pochi, poi sempre di più, infine tanti e, ad ogni nuova versione dello Zoo di Google, i siti innocenti sono così infuriati che Google è costretto a relazionarsi per la prima volta direttamente al pubblico attraverso la figura di “Matt Cutts” tentando di far capire che “va tutto bene”. Ma la inconcludente tesi di Google per la quale contano altre cose e non i link non fa smettere la fuga di petrolio e il Web si inquina sempre di più, le vittime innocenti aumentano sempre di più fino a quando Matt Cutts, oggi 1 Agosto 2013 ieri 1 Agosto, rispondendo ad una domanda di un webmaster, dice “Sì, vi daremo qualcosa per capire di più sui link che vi danneggiano”, un passo di Google che ammette un problema oramai troppo grande da lasciare in secondo piano.

Ma mentre Google prende tempo sedando le lemente con promesse storiche, di soppiatto modifica le linee guida aggiungendo nuove regole sempre più restrittive sui link, come ad esempio “se fate una press release e mettete un link, il link non deve avere come obiettivo quello di modificare volutamente il PageRank”, oppure “Se vi fanno un Articolo che parla del vostro sito, e SECONDO NOI quello è fatto per modificare il PageRank, allora sarete declassati”, oppure “se fate delle interviste e vengono pubblicate con dei link che SECONDO NOI hanno lo scopo di modificare il PageRank, sarete puniti”.

 

Insomma, Google,  facevi prima a scrivere “Non fate più link perché altrimenti violate le guidelines”.

 

Anche perché, è proprio colpa di questo PageRank se i risultati di ricerca sono 3 buoni e 7 “pompati”. Non è ora di fare davvero qualcosa di “non evil” come, ad esempio, prendere il PageRank e rottamarlo?

IL FUTURO È GIÀ NEL PASSATO —  Una delle mosse più intelligenti di Google fu anni fa quella di comprarsi Urchin, rinominarlo in Google Analytics e darlo a tutti gratuitamente. In questo modo Google è diventato negli anni l’NSA del Web. Sa dove si trova un utente in ogni momento, quello che fa, come lo fa, se torna indietro da una pagina web, oppure se sta su di un sito. Grazie a questi dati, Google oggi può stabilire in base al comportamente dell’utente se un sito web è “utile” o “meno utile” . Quando si fa una ricerca e si segue un risultato, si visita un sito e se non è quello che si cerca, si torna indietro e si va al risultato successivo, Google lo sa. Può collegare questo comportamento ad un punteggio di Qualità, il quale farà scomparire dalla ricerca quell’inutile sito. Con questo metodo, non mi interessa se il sito appare perché linkato dal link del link; semplicemente è l’utente a castigarlo e la guerra potrebbe finirebbe con gran beneficio di tutti.

Sperando di non scoprire poi  di non essere in una guerra, ma in una battaglia.

Qualcosa è sbagliato in Apple… qualcosa è giusto in Apple.

Negli ultimi anni il profitto netto generato dalla business unit di iPhone ha raggiunto quasi il 50% di tutto l’utile Apple.

Presentando iPhone, Jobs disse che ad Apple bastava il 5% di un mercato enorme come quello dei Cellulari per cambiare il futuro dell’azienda. A quel tempo Apple aveva già stupito il mondo con l’iPod: con iPhone ha stupito ancora di più.

LA APPLE DI TIM COOK – Apple di Tim Cook ora sta affrontando un “nuovo” mercato. C’è Android e Google che finalmente, dopo eterni tentativi, ha sul mercato qualcosa di decente (via Samsung comunque e non direttamente), ma si continuano a leggere report sempre più confusi su chi lo ha più lungo. A sentire Google, sembra che il marketplace di Google Play vada già meglio di quello di Apple iTunes, ma poi altri report “neutrali” danno dati diversi. Larry Page ha smesso di twittare il numero di attivazioni di Android dopo che da 50 a 500 milioni qualuno gli ha fatto notare che non si devono contare le attivazioni per device (10 ripetute valevano 10) ma per utente (che guarda caso ora è il dato che Google usa per misura Google Play).  E a 10 anni di distanza Google ancora fa soldi solo da un solo e unico modello di business, la Search (90% delle Revenues per il Q2-2012, e il resto del 10% è… Motorola!).

Ma Apple è cambiata. Ora vuole pagare dividenti ai proprio azionisti (urrà, direi!), ha una concorrenza mai vista, ha sostituito Microsoft con Google nella guerra del PC vs Apple, ma la prima sta tornando (forse) e soprattutto Apple continua a mantenere “fede” alla sua politica di prezzi alti a dispetto di un intero mercato di spettatori convinti (ad oggi senza ragione) del contrario.

LE COSE SBAGLIATE DI APPLE – Ma gli spettatori non posso che notare cose “sbagliate”.

BAD 1 – Gli utenti oggi sono testimoni dell’uscita dell’iPad v4 e fino ad un’ora prima a nessuno veniva bloccata la vendita dell’iPad v3 ora fuori listino e Apple nemmeno parla di un “rebate” o un coupon code per questi ignari (e vittime) acquirenti; traditi aggiungerei.

BAD 2 – C’è un Safari 6.0.1 sul MacOS (con molti problemi e un Web Inspector peggiorato) e su iOS ancora non si vede; su iOS c’è ancora la versione in cui la URL bar non fa le ricerche e dell’update non si vede nulla (Apple testarda).

BAD 3 – Le Mappe di Apple? Per fortuna c’erano Applicazioni esterne per girare e trovare i Negozi a New York City. Le Google Maps via Web? Impossibili da usare e frustranti. Ma devono essere per forza solo questi 2 player a fare le cose?

BAD 4 – Viene annunciato un iMac, ma acquistabile solo tra 2 o 3 mesi, intanto annunciano specifiche, ma il prodotto “non s’ha da fare”, poichè prima han bisogno di produrre più iPad e iPhone.

Già, a proposito di iPhones e iPad.

Bastano 35 ore per mandare in “2 to 4 weeks” di attesa la disponibilità dell’iPad Mini 16GB. Il messaggio sembra “li hanno venduti tutti, che bravi”, ma qualcuno legge “ne hanno prodotti pochi”, mentre gli analisti capiscono che significa “non siete in gradi di produrre più di così”.

BAD 4 – E sembra proprio che gli analisti abbiano ragione. Al Q4 e Q3 del 2011 e al Q2 e Q3 del 2012 Apple lamenta un problema di “unità consegnabili”. Ne fan poche o si sono affidati troppo alla taiwanese Foxcomm e alle sue fabbriche in Cina? Perchè non ci credo che li vendano tutti e che siano contenti visto che in borsa, ogni volta, vengono invece castigati. E le fabbriche annunciate in Brasile avranno effetto per il 2013.

BAD 5 – Ma è peggio, se andate all’Apple Store più prestigioso in USA, quello in 5th Av. a New York City, scoprirete che negli ultimi 7 giorni non ci sono iPhone 5 da acquistare perchè… esauriti! ma nemmeno i nuovi iPod, in arrivo, e del mini Mac, bè, o arrivate 2 giorni dopo l’annuncio o non ne trovate. Ah, ovviamente trovate gli iPad 3 fino a 1 minuto dall’uscita del 4, quelli non si trattengono dal venderveli.

BAD 6 – Nello stesso momento in cui tutti questi aspetti si accavallano, Apple aumenta il prezzo minimo delle Apps da 0,79 a 0,89€. Immagino non ci sia un “declino” di acquisti nelle Apps più economiche e certo questa manovra porterà in Apple un aumento dal 3 al 5% delle revenues dalle Apps. E’ una manovra che tenta di arginare la situazione dei prossimi Quarter o era prevista da tempo?

Qualcosa di giusto in Apple, sono i Numeri. Date un occhio ad un pò di numeri sulle Apps.

Source: Fortune/CNN Reports, Dismito, Google and Apple Keynotes

  • Year 2010 Apps disponibili, Apple:Google rapporto 6:1
  • Year 2011 Apps disponibili, Apple:Google rapporto 8:1
  • 2011: circa il 15% delle Apps Apple scaricate sono a pagamento; dal 11,6% del 2010;
  • 2011: se in italia le top 50 vengono scaricate 2000 volte, in USA le top 50 sono scaricate 25,000 volte.
  • 2011: il costo medio per Apps è di 1,06€;
  • 2012: Apple ha dato ad oggi 6,5b$ agli sviluppatori; Google molto meno di 1b$;
  • Q3 2012: Apple fattura 1,8b di dollari a Quarter dalle Apps.

Insomma, benché non stia succedendo nessuna delle catastrofi augurate dagli Androidiani (anzi, lato loro la frammentazione dell’OS sta peggiorando a discapito di qualità, revenues e solidità delle apps), visto uno Store di Amazon semi deserto (e quando esce qualcosa, c’è già per Apple) e quello di Microsoft peggio del deserto del Gobi, se non fosse per gli stupendi MacBook Pro sul mercato, un ottimo Mini Mac e un iPad mini molto attraente, l’hype che circonda Apple non può fare altro che metterla sempre più in difficoltà. Il mercato è stato abituato alle “rivoluzioni” dell’iPod, di iPhone e anche di iPad aggiungerei che ora si aspetta davvero tanto da Apple.

E allora per i prossimi mesi, che parlino le Net Revenue! e che si sveglino a spostare la produzione fuori dalla Cina! E poi siamo pronti per la prossima Next Big Thing.

Per ora da Google e Microsoft non arriva nulla di nuovo, su questo siamo tranquilli 🙂 Anzi forse più cookie e tracking di quello che facciamo su Internet.

 

 

Link Building e Black SEO, 3 milioni di URL, 30 Bad Bot e 3000 IP Proxy — un caso vero

In questi ultimi anni, uno dei siti che manteniamo per un cliente particolare è un sito di bookmarking. Esso permette di caricare bookmark dal proprio Browser o aggiungere Url nei preferiti e condividerle con il pubblico, trovare siti collegati e informazioni varie. Il servizio è stato sviluppato per il mercato in lingua Inglese. Fin qui nulla di speciale.

BLACK SEO, WHITE SEO, SPAM SEO — Una delle caratteristiche del sito di bookmarking è stato quello, per sua fortuna o sfortuna, di essere inserito nel corso degli anni in una marea di siti di “Submit gratuiti” operati da società di white (buone) e black (cattive) SEO. Esattamente quelle pagine che non usereste mai per un vostro sito.

Come sapete creare LINK verso il proprio sito è alla base della visibilità nei risultati di ricerca di Gogol (ndr. Google), ovvero più hai link e più sei bello. Benchè Google ne dica, se non avete link verso il vostro sito, non esistete (salvo siate nelle segretissime White List di Google come “sito indispensabile” o “brand affermato non penalizzabile”).

Un sito di bookmark è quindi perfetto per una invasione di “link” da parte dei “black” SEO. Queste società creano pagine di FREE submit (tipo questa pagina, una delle tante osservate, backlinks.auto-im.com/freepack/free.php ), promettendo in 1 click fino a 200,000 backlink. L’abilità di questi SEO è quella di trovare un sistema per inserire link nei siti di altri e tali da poter replicare l’inserimento in modo automatico e continuativo nel tempo.

Una volta che il FREE Submit è sviluppato, gli stessi SEO sviluppano anche sistemi di verifica del vostro link per evitare che sia cancellato. Questi tools si fingono utenti con tecniche più o meno legittime e come un robot vengono a vedere se il link è presente nelle pagine del sito di Bookmark. Siti come Seostats o Seotools, ad esempio, per ogni URL che inserite nel form di verifica, un fastidioso robot viene sulle pagine del bookmark a controllare la presenza del link.

Ma la cosa non si limita a servizi online. Alcuni software fatti per inserire migliaia di articoli o link in altrettanti migliaia di siti (ovviamente non hanno nessun accordo con nessun sito) semplicemente si fingono utenti e inviano i dati attraverso dei robot e ne gestiscono pure la verifica successiva e continuativa. Ad esempio, nel 2009 un (in)famoso software chiamato Autoclick Profits vendeva per 149$ il sogno di enormi guadagni con un click. Scaricando il software si accedeva ad un tool per inserire migliaia di articoli o link in migliaia di siti online (tra cui il sito di bookmark), e gli stessi link potevano automaticamente trasformarsi in URL compatibili con sistemi di affiliazione come ClickBank grazie al quale si guadagna cliccando.

 

UNA MAREA DI URL — Sta di fatto che con il passare degli anni, il sito di bookmark raccolse i seguenti dati.

Periodo Gennaio 2010- Dicembre 2011

28,186 Url Web .it — inviati in modo “non naturale”;

2,976,560 Url Web in totale inviati in modo “non naturale”;

29 “bad bots” — sistemi malevolenti per l’invio di url;

2976 “Proxy” — utilizzati per inviare i dati;

1 tentativo di SQL Injection;

1 virus.

E le attività dei SEO non sono diminuite negli ultimi 7 mesi del 2012.

Poichè il sito di bookmarking non ha scopi di link-building o “black” SEO e fintanto che le URL inserite non vìolano  regole stabilite o di SPAM, nulla è stato fatto per evitare tale attività (tranne per i bot ostili e non tollerabili).

 

UN COSTO DI GESTIONE OLTRE BUDGET — Ma qualcosa non va. Questo è un solo sito di “pagerank 3” come milioni di altri. Se una attività di black seo permette di creare 3 milioni di link (2 univoci più o meno) in 3 anni di tempo, quanto vale questa attività su larga scala? Sicuramente parecchio in quanto ad ogni cambiamento delle pagine del sito di bookmarking, i BOT e gli SPIDER si adeguavano regolarmente.

Chi ci tutela? E’ possibile che si debba pagare per lo SPAM link di migliaia di altri siti? Poichè un LINK-IN è alla base della visibilità in Google, il mondo oggi paga questa decisione e non ottiene nulla in cambio da chi ne gode.

 

ARRIVA LA GOOGLE PENGUIN UPDATE, I COSTI AUMENTANO! — Con Novembre 2011, improvvisamente il costo “tecnologico” e di “gestione” di questo problema aumenta esponenzialmente.

Poichè i possessori dei siti che venivano inseriti erano spesso IGNARI delle tecniche di black seo che a loro insaputa avevano assunto e pagato anni prima come consulenza da parte di abili “società di posizionamento”, essi iniziarono a sentirsi dire da altrettanti consulenti che “un link-in sbagliato può punire”. Ovviamente tali voci non nacquero a caso; se i link-in non possono di certo penalizzare (al massimo non contano nulla), nessuno ne ha la certezza e il mondo si preoccupa per un cambiamento “epico” nelle regole del gioco.

Nel Marzo 2012 le voci prendono fondamento e Google annuncia PENGUIN e invia “mail” ai webmaster i cui siti sono linkati da url “non spontanee”. Toh, guarda, e ora che faranno quei 2,000,000 di webmaster? Poichè non esiste una regolare iscrizione per avere inserito un link nel sito di Bookmarking, per i webmaster è altrettanto impossibile rimuoverli.

Da Marzo 2012 le richieste a bookmark si trasformarono in una nuova tipologia di richiesta: le mail chiedevano la rimozione di link che ritenevano “impropriamente” inseriti nel sito, alcuni addirittura ipotizzando un uso illegittimo del link inserito senza la loro autorizzazione! Altri, sostenuti da un improbabile Google-zorro alla tutela dei webmaster, minacciarono di denunciare il sito a Google se il link non veniva rimosso prontamente. Inoltre, poichè questi webmaster (o agenzie di siti quando i siti erano “famosi”) dovevano mandare queste mail in quantità, non facevano spesso riferimento a URL o dati precisi e minacciavano IP e URL presto penalizzate se non si cooperava e altre fantomatiche… balle da web.

“[Editato per la Privacy] This link needs to be removed with immediate effect.

Google has been in contact with us and asked us to remove this unnatural link as it will penalise both the XXXXX.co.uk website as well as your website.
Google have also asked us to inform them of any websites that are not cooperative in this request, and to provide them with the domains and IP addresses of sites that do not comply with the request.”

 

Insomma, da ingenuo sito vittima di “abusi” il sito si trovò pure “beffato” e “accusato”.

Una delle comunicazioni del cliente ad un certo punto fu “sarebbe bello dire in faccia a questi webmaster come e chi gli ha inserito il link e di smetterla di fare richieste offensive visto che è certo che hanno usato società SEO poco attente”. Da questa osservazione, nasce di fatto anche questo post: di fronte all’immensa lista di URL che abbiamo visto e alle tecniche usate non si poteva far finta di nulla.

Il “removal di bad links” è oggi una delle questioni più traumatiche dopo l’introduzione di PENGUIN di Google, un algoritmo di controllo dei link che tenta di diminuire proprio il problema di link “non naturali”.

Il punto è che il Web fa intendere che un “bad link” significa un “bad website” e pertanto il sito che ospita link finti viene minacciato di “penalizzazione” (come si vede dalla mail di quel webmaster).

Per fortuna Google è molto più arguto e un bad link è in realtà “un link non naturale” e i siti che li ospitano — ignari o no che siano — “non subiscono nessuna penalizzazione“. Se ci sono penalizzazioni, sono sempre legate a interventi extra-algoritmici o gravi violazioni di contenuto (come sempre è stato fatto da parte di Gogol).

Ad oggi il sito di bookmarking continua a fare il suo lavoro, le tecniche di protezione dallo SPAM maligno non sono concluse, ma sono state implementate tecniche molto più adatte di quelle di anni fa e non so proprio come potrebbero fare 2,000,000 di webmaster se un giorno Google dovesse davvero penalizzarli.

 

da Leopard a MacOs Mountain Lion; che Safari ragazzi…!

MacOs Leopard è stato, secondo me, uno dei migliori aggiornamenti, se non IL migliore Mac OS mai installato sui miei Mac.

La spinning Wheel di Excel ci perseguita!

 

Non solo le performance erano strabilianti, ma l’intero Core del sistema era stato riscritto per sfruttare finalmente a pieno i 64 bit delle macchine fino ad ogni processo possibile. Ad esempio, se volevate stampare in PDF da Safari (e non fate quella faccia pensando a Safari!), il Print to PDF integrato di Apple (non serve quel dinosauro sempre-più-inutile-Adobe per fortuna), il processo che Safari lanciava per la Stampa e quello successivo per il Rendering del documento da HTML a PDF erano tutti regolarmente a 64 bit.

 

MACOS LION, LA CADUTA — Poi è arrivato Lion. Un Leone è “meglio” di un Leopardo: il Leone è il Re della foresta. Ma qualcosa non ha funzionato. Intanto Lion esce dopo gli anni peggiori di Jobs, il progetto è tutto in mano al nuovo direttore dei sistemi Operativi che è sicuramente distratto da iOs, il sistema dell’iPhone. Quest’ultimo sta dando così tanti numeri (positivi) per Apple, che dedicarsi a iOS è un attimino più importante di MacOS, soprattutto perchè Android arriva per la sua prima volta a una versione decente (la 4.0).

Pertanto arriva Lion, sostituisce Leopard e la prima cosa che fa è stabilire che il sistema di esecuzione dei processi non è più fatto “ognuno per sè”, ma “tutto dipende dal lui”. Pertanto Safari perde il suo motore di rendering per le pagine Web che Lion rende esterno ed eseguibile da qualunque parte lo si voglia chiamare. In questo modo se avete un’altra applicazione che vuole gestire un documento Web, questa può farlo con la stessa completezza di Safari (sia Apple Mail, iWorks o anche Excel, Autocad, un gioco, iTunes, etc); geniale, ma se usate al 99% la sola applicazione Safari, in Leopard i processi di rendering erano tutti suoi, ora invece sono condivisi e in attesa che anche qualcun altro li voglia usare, diminuendone la potenza nominale a disposizione.

Fin qui tutto già collaudato: è come in iOs. Ma il Sistema Operativo, che ora gestisce il processo, può anche bloccarlo con “urgenza” se necessario (es. c’è poca Ram, l’hard disk è molto impegnato altrove, etc). Prima Safari si arrangiava da solo, ora Safari non fa altro che delegare e sperare che i processi esterni siano sempre veloci. Ma non è così. Quando si vuole stampare documenti Web in PDF, Safari chiede al processo di Rendering la pagina Web; poi chiede al processo PDF la trasformazione da Web a PDF; prima tutti e due i processi erano in Safari, con LION non più.

In questo modo le operazioni di stampa e Rendering RIPETUTE rispondevano dal 20% al 50% più lentamente di Leopard. Più il Mac era vecchio e peggio pesava la concorrenza dei processi.

 

MACOS LION E IL “WHITE PAGE BUG” DI SAFARI — Nel giro di pochissimo tempo, la produttività del mio Mac con LION era diventata la metà dei tempi di Leopard. Safari spesso “attendeva” per lunghi attimi che i processi si liberassero dallo “swap” dell’hard disk gestito del Sistema Operativo. Se iOs è abbastanza protetto e generalmente l’utente fa una cosa alla volta in un iPad o iPhone, MacOS non è altrettano “mono processo” e quando il processo esterno di Rendering crashava per qualche motivo, TUTTE le pagine che usavo in Safari tornavano come se fossero state appena aperte (chiamato da Apple come il “blank page” bug), e sottolineo TUTTE, non solo quella che aveva causato il crash (alla faccia dei processi separati!). Ma ancora più subdolo era che le pagine in cui era stata effettuata una login tramite sessioni AJAX, ad esempio Facebook, esse rimanevano collegate all’utente, ma la pagina Web mostrava la pagina nuova di login!

Ad un certo punto della sua vita, il mio Safari poteva aprire 2 nuove finestre, una andava su Facebook e una su Google Plus, loggava su entrambe, e quando Google Plus faceva partire il processo (esterno) di rendering per Flash, questo, impegnando per qualche secondo l’hard disk, mi permetteva di farlo crashare (semplicemente chiudendo la finestra!), e Safari, crashando, generava un LOGOUT non solo da Google Plus (causa del crash per colpa di Flash), ma anche da Facebook (pagina diversa e regolarmente connessa), senza che nessuno avesse cliccato “esci da facebook” o “esci da gplus”. Infatti le sessioni di Facebook non erano realmente chiuse e chiunque avesse fatto “Refresh” di nuovo  avrebbe trovato il mio Profilo aperto e non la login!

Con LION ci sono state parecchie update di Safari, ma nessuna ha migliorato questo problema, anche quando Apple pubblicamente fece una update dedicata. Ovviamente era solo “diminuito” il bug, ma era semplice riprodurle e lasciare pagine loggate apparentemente sloggate con la tecnica di flash.

In un cyber cafè, faccio loggare un utente su Facebook, crasho il sistema con un Applescript e Flash e se tu utente te ne vai scocciato, vado lì, reloado Safari e sono sul tuo Profilo di Facebook.

 

I CLOUD, U CLOUD WE ALL CLAIM FOR A BETTER MACOS — Ma i problemi non erano solo di Safari. L’introduzione di iCloud in LION è stata praticamente impercettibile lato utente, mastodontica lato performance; per portare il cancello di iCloud, LION è diventato un insieme di processi e controlli di rete. Per muovere una connessione, non aspettava i tempi morti, ma al boot tutto e tutti dovevano collegarsi al mondo il prima possibile.

La conclusione? LION è stato un MacOS che ha disimparato a fare il lavoro “vero” per iniziare a fare mille cose di iOs, inutili. Se la rotella di attesa di Excel era diventata meno frequente, con LION la rotella di attesa di Excel appariva più di ogni altra cosa, e la gestione dei FONT, probabilmente delegata al sistema operativo rallentava sempre di più l’utilizzo di ogni applicazione che usasse font in modo estensivo.

 

MACBOOK RETINA SAVE ME! — La conclusione è stata che per continuare a lavorare con LION, dovevo cambiare Mac… non con un Windows, quello no, ma con un nuovo Mac. I difetti di LION dovevano essere corretti dalla potenza di un nuovo Mac. E così è stato.

Il Macbook Retina Display ha vissuto 1 mese con LION, rendendolo veloce come il Leopard di 4 anni fa! Un bel piacere, ma anche rabbia. Insomma, il boot in 2 secondi, lo shutdown istantaneo di Leopard erano tornati e non erano stati miraggi solo di un tempo che fu.

 

MOUNTAIN LION, ORA SI RAGIONA — Oggi è arrivato Mountain Lion. Oggi per modo di dire, è un pò che gira. Negli anni bui di LION temevo per il peggio: che Apple avesse perso la via accecata da iOS e dalla concorrenza (di Android), che nessuno più in Apple vedeva le imperfezioni di programmatori pigri e quindi processi o sistemi fatti male rimanevano tali e nessuno li chiamava alla Domenica mattina per una ramanzina (vedi Jobs e l’icona di Google Mail sull’iPhone 1), che sarebbe sempre stato peggio visto che il bug di SAFARI non è mai stato fixato realmente, così come altri problemi fixati solo dopo moltissimi mesi (se non anni per il flicker al nero di alcuni schermi del Macbook Pro unibody).

Oggi c’è Mountain Lion. Il rendering è tornato veloce, il processo esterno non è più “crashabile” con facilità, e se muore, non genera un “blank page bug” di tutte le finestre aperte di Safari che ora è alla versione 6.0; certo è più difficile rallentare un Mac nuovo per poter causare il problema, ma la prova del fuoco è un Excel che ora gira senza rotella!

Speriamo Apple non voglia fare di MacOS un iOS; magari mi sbaglio, ma io vorrei lavorare con questo Mac e non fare Gesture dalla mattina alla sera o stare collegato alla iCloud 24h su 24. Se magari ogni tanto pensasse alle applicazioni “classiche”, saremmo tutti un pò più operativi. Un iWorks come quello che abbiamo non serve a nessuno.

Ah… con LION nessuna applicazione riusciva ad aprirmi 2 GB di file XML, nemmeno Oxygen o BBEdit (quest’ultimo dava un terribile messaggio di altri tempi “OUT OF MEMORY”); ora invece riesco ad aprirlo e anche a consultarlo eppure è cambiato solo il Sistema Operativo.

SAFARI 6.0, UN WEB MIGLIORE?  — E con il Retina Display e qualche sito con grafica Retina, il browsing di Safari 6.0 è indubbiamente migliore di Chrome o Firefox. Tra l’altro Chrome continua a rimanere a 32bit quando oramai Safari è a 64bit da parecchi anni sul Mac.

UPDATE 1 AGo 2012: Stanotte Chrome si è aggiornato alla versione 21.0.1180.57 con RETINA DISPLAY (anche se ancora a 32 bit) e ora è un bel vedere anche con Chrome e non solo con Safari 6.

Quindi, viva Safari 6.0!

 

P.S. E’ con piacere che racconto di questo bug di Safari 6.0! Ma come? Di già un bug? eh sì…

SAFARI 6.0, SCROLL FREEZING BUG — Aprite il Develop Menu di Safari 6.0, attivate il debug Javascript e dite a Safari di fare stopword all’errore se ne capitasse uno, navigate fino a quando (questione di pochi click…) un sito web qualunque vi dà un errore (o fate voi una pagina con un errore), il debugger si attiverà e metterà in pausa il sito per farvi debuggare l’errore. Se non togliete la PAUSA del debug, tutte le altre pagine web che aprirete, userete, navigherete, nuove o già aperte non potranno più … scrollare! EH sì, viva Safari 6.0 — attendiamo fix 😀

Vabbuò, viva iOS!

 

Dominio vücumprà e Gógól.666 presto nelle vostre url

IL PRIVILEGIO DI AVERE UN DOMINIO .COM – All’inizio dei tempi, era un lusso e un privilegio avere il dominio .com. Ma registrarlo significava un “impegno” con il mondo al quale si annunciava di essere, appunto, “mondiali”. Per questo motivo, qualche cliente preferiva non volere il .com e avere solo un .it, con l’idea di dire “noi siamo piccolini”. E giammai si registrava un .net; quelli erano domini per i “network” di servizi, di aziende, di idee, tutte cose che non interessavano a clienti retailer o siti istituzionali. Questo all’inizio dei tempi. Oggi è un’altra storia.

 

ÀÈÍÓUE E IL DOMINIO VIENE QUÁ.it — Tra poco potrete avere dei domini di dubbia leggibilità, nomi con accenti e dieresi o umlaut, potrete registrare finalmente vabbuó.it con la ó come si deve, ci potrà essere un ecommerce che vende online con il nome di vucumprà.it ma anche domini assurdi tipo àèìòù.it oppure peggio gögol.it o utilizzare qualunque forma di confusione vi suggerisca la vostra fantasia.

Ovviamente non posso che pensare alle risate di quando in un FORM di registrazione email inserirete la vostra mail “alessandro@tacàdènt.it” poichè il 99% dei form di oggi scartano quel tipo di email, o peggio la salvano come tacadent.it creando beffa e danno in un colpo solo. Peggio ancora se vi verrà l’idea di iniziare ad usare i caratteri anche nel nome come nicolò@cadréga.it, una mail che per un form di iscrizione di oggi può produrre le conseguenze del sovrastimato bug dell’anno 2K.

 

CHI CONTROLLA IL DOMAIN SPAM? — Con questa novità per i domini, la voglia di inventare nuovi suffissi sembra degenerata.Non è una novità, dal dominio .TV in poi, i domini sono diventati sempre di più fuffa nel significato. É vero che per qualcuno i nuovi domini saranno utili e potrete dire che finalmente qualcuno sembra aver spiegato agli Yankee che Internet non è solo Americano (sì boys, ci sono anche le accentate nel mondo!), ma avete in mente quante nuove email false potranno arrivarvi e voi dovrete usare la lente di ingrandimento per capire se è vera o falsa? Perchè, è vero, gmail ne intercetta parecchie (ma non altrettanto yahoo mail, sveglia!), ma una info@bancadellagrandesïena.it sarà una mail Phishing pronta a portarvi altrove e a chiedervi dati, soldi e figli senza che voi ve ne accorgiate.

 

NON BASTA, ARRIVA PURE GOGOL.DEVIL — E poi, invece, han pensato almeno a tutelare quelli che invece dovrebbero avere il dominio con le accentate di diritto? Un sito (reale) come www.tuscos.it, di diritto dovrebbe avere l’equivalente milanese www.tuscòus.it e www.ciapachi.it dovrebbe avere www.ciapàchì.it, ma ovviamente i domini sono fatti per i banchetti di fantozzi: chi primo arriva, arraffa!

E la roba da arraffare non finsce qui!

No, perchè forse non lo sapete, ma si è appena conclusa (o si sta concludendo) un'”asta” internazionale che peggiorerà ancora di più le cose. Chi voleva (con tanti soldi), poteva proporre un proprio nuovo suffisso e aggiudicarsene i diritti d’uso. Sì avete capito bene.

Vi piace un dominio con il suffisso “.warez”? Va bene, è vostro. Andate in asta, decidete di pagare da un MINIMO 185,000$ in su e se vincete, è vostro. Dopodiche potrete usarlo per voi, per la vostra azienda o rivenderlo agli smanettoni di internet. Per tali geniali “nuovi” suffissi, i “big” si sono subito messi a spendere migliaia di dollari e il primo tra gli spendaccioni è il solito Google (o Gógol alla italo-berlusconiana) con i suoi 20 milioni di dollari e — lasciatemelo dire — strano che non abbia preso il dominio che gli si addice di più di tutti, il .666 (ndr. i numeri non erano nella lista dei suffissi, idea per il prossimo giro?).

Pertanto fra un pò avrete domini come www.perchè.wiki oppure andiamo.amagnà.citta e così via. I primi a gioire saranno i “phisher” (falsificatori di messaggi autentici con destinazione falsata), con migliaia di nuove alternative a loro disposizione per mandarvi spam e fare siti cloni www.ebay.ebay oppure www.ebây.it — entrambi di chi saranno?

 

TROPPE INFORMAZIONI, LA GIOIA DI GOOGLE — Con tutti questi nuovi domini, a e i o u .book .google .shop .vieniqui vucumprà.la, farvi collegare il più velocemente possibile al contenuto giusto sarà sempre più un compito di altri, tipo qualcuno che sappia gestire le informazioni per voi.

Almeno ora se pensate al sito della Lego, scrivete Lego.com; non vi serve Google “in mezzo” che fa l’arbitraggiatore di informazione (mostrando ogni tanto quello che preferisce). Invece domani come sarà? Volete un libro da Amazon per il kindle phone? bene, Amazon.com ma anche libri.kindle oppure kindle.amazon?

E peggio. Pensate ai siti corporate e ai siti di produttori mondiali. Asus! Philips! Sony! Per tutti questi già oggi è impossibile trovare le informazioni; domani saranno solo e sempre su sony.com?  Domani magari mettono le Tv sotto products-sony.hitech oppure sony.shop per lo Store, e anche sony-games.play per i giochi… Pertanto, i 20 milioni di dollari spesi dal motore di ricerca di Mountain View non sono una spesa, ma un investimento e l’aumentare della confusione della reperibilità delle informazioni è proporzionale a quanto dipenderete da Google. E Babelfish non c’è più, chi ci libererà da Google?

 

ASIA, ÜBER ALLES — Infine, non ci interessa molto, ma fa decidere spesso le strategie recenti delle aziende Occidentali: oggi i “big” temono di perdere il treno per l’Asia, chi fa tardi, prende di meno da un mercato enorme. E allora perchè non accontentarli? Il più grande gioco online di Ruolo, World of Warcraft sta preparando da più di 1 anno un’espansione completamente dal sapore Orientale, Apple sta abbracciando la Cina come il panda un albero, quindi perchè i gestori di domini non dovrebbero produrre 10 (sono cauto) volte tanto il fatturato permettendo accentate, dieresi e… ideogrammi? Sì, anche ideogrammi.

E quindi, se prima arriverete comunque su www.alibaba.com, domani avrete 10 milioni di domini in più con ideogrammi come http://파일을 찾을 수 없음 che non potremo certo digitare e visitare. Ah no, che stupido… Andremo su Gógól che sarà l’unico sistema per trovare, leggere e navigare siti di domini e contenuti di lingua diversa dalla nostra e magari anche di contenuti della nostra lingua, perchè un .book o un .shop o un .store non sono sufficienti per dirci che fa cosa.

 

 

Diablo 3 casa d’aste a denaro reale (dei balocchi)

Devo dirlo. Sono l’unico a cui disgusta giocare a Diablo 3?
E’ forse normale che un gioco sia presentato come “lungo e vario” con una storia molto bella, poi invece si riduce il tutto a 4 atti che DEVI giocare per forza 4 volte in 4 modalità diverse e della storia dimentichi tutto perchè il tuo unico scopo diventa sperare di non morire ogni 2 minuti e di trovare un’arma epica e utile?
Io lo chiamerei “frustrante e ripetitivo”. Dopo decine di ore di gioco, non c’è il minimo appagamento. Forse un’arma epica ogni 500,000 mostri uccisi. Ma forse la tanto discussa Asta a Soldi Reali ha a che fare con tutta questa fatica?
Già parliamo di quello, visto che questo POST è sulla “Casa d’ASTE Europea a Soldi Reali” partita 2 giorni fa.

Money in Diablo Hell

DIABLO 3, ARMI, TORSI, GUANTI, ELMI — A QUANTO? — Facciamo un passo indietro. Diablo 3 è un gioco principalmente single player (ma potete anche giocarlo in un gruppo di 4 persone), ma richiede una connessione internet obbligatoria ed è venduto e sviluppato dalla Blizzard, la stessa casa che domina il mercato dei giochi online di ruolo con World of Warcraft (12 milioni di abbonati).

Diablo è un gioco che si compra come tutti gli altri, 50€ da Amazon, si installa e poi è gratuito per sempre. Due giorni fa, come annunciato, Blizzard ha aperto l’asta “a soldi reali”, ovvero il sistema con il quale gli utenti del gioco possono vendere e comprare oggetti usando soldi veri della vostra carta di credito.

Il web si è subito riempito di migliaia di opinioni contrastanti sulla novità; chi sostiene che un gioco non dovrebbe essere condizionato da un sistema a valuta reale, chi sostiene che il gioco è addirittura costruito per mandarti prima o poi ad usare l’asta, mentre la difesa della Blizzard è che comunque non si è obbligati a pagare con soldi veri e il gioco non subisce differenze.

 

QUANTO PER LA VOSTRA ARMA PREFERITA?— Va bene, diamo fiducia a Blizzard. Allora a quanto sono le armi migliori per il mio personaggio livello 60? 250€… Sì, avete letto correttamente: duecentocinquanta/00 euro per un arma (virtuale); è un terzo di un iPad, 3 spese all’Esselunga (4 al Dì per Dì), 6 cene con vino con gli amici, un sacco di soldi insomma! Ed è solo per un’arma. Il set è fatto di almeno altri 9 pezzi. Io mi aspettavo costi stile le App di iTunes, 0,79€ oppue 1,29€, 4€ per il miglior gioco, e invece le aste hanno un minimo di 1,25€ e un massimo di 250€, ma a quanto pare la gente ha subito deciso di farsi le vacanze al mare sponsorizzate Blizzard.

 

UN MODELLO DI REVENUES PRECURSORE DEL FREE TO PLAY DI WOW — Questioni di morale a parte, Diablo 3 è un ottimo modo per la Blizzard di testare un modello di revenue “nuovo” e alternativo all'”abbonamento” di Warcraft o al gioco+espansione (pago la versione principale e poi compro le espansioni successive, tipo i modelli adottati da Starcraft, Mass Effect, Battlefield 3 per citare altri nomi).
Sono 6,3 milioni di copie vendute in 1 settimana per Diablo 3, ma siamo comunque ben lontani dai 2 miliardi di dollari all’anno prodotto da World of Warcraft, per il quale ogni utente lascia a Blizzard in media 155€ all’anno di abbonamento.
Se solo il modello dell’asta “reale” funzionasse (magari con una serie di correzioni), parebbe da portare in Warcraft e abbatterne così il costo mensile o portarlo addirittura ad un “Free to Play”. Anche perchè — quando partirà il nuovo mega progetto Blizzard “Titan” — non potranno chiedere di pagare 2 giochi agli utenti.
Da notare che il modello della Casa Aste Soldi Reali diventa praticamente applicabile a qualunque altro oggetto nel gioco e magari in Titan si potranno comprare terreni edificabili o case in cui vivere, oltre a comprare armi o mount epiche.

 

DIABLO 3 UN GRANDE ESPERIMENTO? — L’odore che Diablo 3 e la sua Asta sia un grande esperimento c’è. Il gioco appare in un “lasso di tempo” in cui Warcraft sonnecchia, in cui il nuovo progetto Titan (o come si chiamerà) è sufficientemente lontano da poter accogliere ogni nuova decisione sul modello economico. Inoltre Diablo3 non ha una componente social tale da farti comprare i super perzzi da 250€ e andare in piazza a farli vedere (altrimenti quale altro scopo avrebbe?). Invece Warcraft è perfetto per quello.Warcraft è il gioco in cui ci si mette in piazza ad Orgrimmar a farsi vedere da centinaia di altre persone mentre si indossano gli ultimi pezzi Epici appena conquistati, aumentanto il proprio ego a dismisura e rendendo Warcraft un social network a tutti gli effetti, accelerando la competizione e la vendita di ulteriori pezzi. In Diablo 3 nessuno ti vede se non i 4 tuoi amici che però non hanno tempo di esaltarti perchè angosciati loro per primi dagli unici pezzi non-epici che trovano e da un’asta (il vero Diablo a questo punto) sempre più presente nei loro discorsi e di piazze non ce ne sono.

 

ASTA DEI BALOCCHI, TAX FREE — Ma ecco il mio problema, ed è anche il motivo per cui scrivo questo post. Giocate a Diablo 3, trovate un arma epica, la mettete in asta per il prezzo più alto possibile, 250€, la vendete e Blizzard vi manda i 250€ sulla vosta email Paypal, detraendo una percentuale asta + una fee della transazione a loro decisione (manco fosse un quadro impressionista) e detraendo le (solite) commissioni Paypal (alla fine dovete togliere il 30% circa se vendete 10€ di arma e circa il 15% se vendete 250€ di arma).

Va bene, avete appena GUADAGNATO 180€. Basta? Finito? Dov’è la ricevuta fiscale? Chi dichiara questo guadagno? Chi versa la ritenuta (Blizzard!)? O è una bellissima asta (dei balocchi) e tutto è un gioco anche fuori dal gioco?

Infatti Blizzard non dice nulla da nessuna parte, la licenza del gioco non accenna minimamente (ad oggi ndr.) dell’aspetto Fiscale e del “guadagno”, nè obbliga gli utenti a fare AUTO DICHIARAZIONE (anche se lo stato italiano prevede ritenuta). Anzi qualcosa dice: la Ricevuta della vendita in Asta recita “Applicable taxes: 0.00€”.

Mi ricorda molto un Google Adsense di molti anni fa, con il quale i siti web guadagnavano centinaia se non migliaia di dollari americani ogni mese, in nero visto che pochissimi dichiaravano il guadagno. La risposta di Google fu “ma noi siamo Americani”. Dopo pochi anni Google pagava una multa al fisco italiano di qualche centinaia di milioni di euro.
Ora Blizzard che dirà? “Ma noi paghiamo dalla Francia”. Già, peccato dipenda dal luogo della persona che riceve i soldi (Italia per noi…) e non quello dal quale emetti il pagamento, altrimenti ogni azienda avrebbe un ufficio all’estero solo per non pagare il costo del lavoro. Ditelo alla Camusso.

Detto questo, c’è una colpa della Blizzard: c’è un guadagno e un guadagno è soggetto a tassazione e ritenuta fiscale. Blizzard facilona sulla questione fiscale, a rischio (per loro) di una multa e interventi correttivi al processo di pagamento, fastidioso, tali magari da escludere l’asta reale dall’Italia. Google ha escluso più volte il nostro paese da iniziative brevi ma che prevedevano pagamenti in denaro; piuttosto che gestire i costi italiani di burocrazia, ha escluso l’Italia da premi e concorsi o guadagni online con un click.

Ma le leggi sono uguali per tutti. Certo, detto da noi…

« Articoli meno recenti