Mainly Internet business, but also life mysteries and videogames

Tag: google (Pagina 1 di 3)

GDPR e Privacy Madness

Scusate, ma è una mia impressione o il mondo online fino a oggi ha sempre fatto quello che voleva con i nostri dati?

GDPR, Privacy, Cookie, Europa, Facebook, follia – Ho la netta sensazione che nessuno abbia mai rispettato la privacy di cui i singoli siti vanno cianciando nel loro footer e nelle loro terms&conditions. Tante belle parole, anzi parolone incomprensibili, qualche link a policy esterne di siti ai più sconosciuti ma che ci tracciano dalla mattina alla sera, ma alla fine poco di quello che viene recitato veniva fatto.

GDPR Sei pronto? - foto

Partiamo dal numero di e-mail che in questi giorni ognuno di noi sta ricevendo da OGNI sito americano a cui si è iscritto. Solo da Google ho ricevuto così tanti avvisi di modifiche della privacy [action required] che alla fine la stessa Gmail ha messo in SPAM le mail di google sulla privacy!

Twitter, Linkedin, Yahoo, Youtube, Twitch, addirittura WordPress per non parlare di Facebbok, i fautori dell’innovazione del Web, i “grandi” della rete che la maggior parte di noi scambia per paladini della giustizia e della libertà di parola sono paradossalmente quelli che più han dovuto mettersi a posto. Eccesso di zelo o menefreghismo totale della privacy fino ad oggi?

ATTENZIONE, QUI DIETROLOGIA ANTI-GOOGLE — Tra l’altro caro Google, mi hai mandato un link di modifiche della privacy che poi puntava ai tuoi sistemi interni. Un errore certo, ma che dimostra quanto chaos ci sia anche da voi. Per non parlare della pagina che mi appariva, chiamata UBER PROXY, un super cancello praticamente, quindi più potente della login normale che c’è su google — come dire, che è vero che c’è una login per i comuni mortali che usano goolge, ma qualcuno da dentro google e grazie all’UBER LOGIN può loggarsi e scavalcare i terms&conditions dei servizi e guardare le mie foto o la mia gmail senza che ne abbia davvero il permesso. Per la serie, Google not uber evil.

TI STIAMO TRACCIANDO CON I COOKIE — Tornando al GDPR, ora la follia è esasperante. Per anni l’Europa dalla sua grande intelligenza ci ha sempre dettato regole migliori di quelle americane — questo è certo –, ma ora noi paghiamo anche i loro sbagli, come sempre. Certo l’Europa non è diventata un faro di civiltà per la privacy online da quando la loro più grande rivoluzione è stata quella di obbligare tutti a dire che … esistono i cookie! Ma va? E dire che con i cookie ti seguono e ti spiano. Davvero? E allora?

Intanto non è con i cookie che hanno spiato 70 milioni di utenti di Facebook, non è con i cookie che Google ti prende di mira con la pubblicità o che twitter ti riconosce mentre navighi. Se dobbiamo avvisare gli utenti dei cookie, allora vanno avvisati anche per gli IP, per il Referer, per lo User Agent, per il Browser Local Storage, per la Session Storage.

Ma intanto ogni sito è diventato un popup-spam di avviso sui cookie che se anche non accetti, navighi lo stesso, ma se hai la sfortuna di essere con un cellulare il sito rischia di essere la peggiore web experience della tua vita tra popup e banner che si aprono prima di poter fare quello che una volta si poteva fare senza intralci.

EUROPA 1 USA 0 — Un fatto. Una mail in un sito web americano vuol dire che la tua email è sicuramente rivenduta o spammata, soprattutto in aziende poco serie o poco controllate. Basta un sito di Web hosting economico, qualche sito di registrazione domini da 5$, qualche sito per scaricare delle ricerche e la vostra mail sarà sicuramente in giro per sempre. Fa parte della privacy americana. Gli USA han sempre confuso la privacy europea con il fatto di avere dei server sicuri. Ti dicono che i tuoi dati sono al sicuro, da noi significa che abbiamo fatto le cose per bene sia tecnicamente ma anche legalmente, da loro vale solo la prima parte. Vuoi esercitare la cancellazione dei dati? da noi è sicuro poterlo fare, in USA questo aspetto è sempre stato aleatorio, anzi a volte le risposte sono pure arroganti del tipo “we do what we want.”

EUROPA 2 USA 0 — Poi improvvisamente il mondo capisce di doversi regolamentare. Ovviamente è troppo difficile usare le regole Europee e certo non siamo noi capaci di imporci. In pochissimo tempo gli USA scoprono che forse è meglio che i minorenni… facciano i minorenni anche sul web, perché non si capisce il motivo per cui sei minorenne per andare al cinema, ma non lo sei per andare su whatsapp. Gli USA scoprono anche che se qualcuno è coinvolto in violazioni della privacy è difficile risalire ai responsabili. Da noi questa cosa è invece sempre stata chiara da sempre. Per non dire che da noi è obbligatorio apporre Partita Iva nei footer dei siti e che essendo l’EUROPA un insieme di Nazioni sovrane, ci siamo sempre chiesti che cosa succede se il nostro nome venga salvato nei server della Germania. Per gli USA invece, credendo in un unico dio se stessi al mondo, non si sono mai posti questi problemi e una volta che i server erano sicuri, tutto era a posto.

SCARY FACEBOOK E L’ALIENO — Ovviamente avete visto tutti l’alieno Mark (ndr: Zuckember CEO di Facebook) tra gli umani senatori americani. Qualcuno dei senatori ha usato quasi tutto il suo tempo a disposizione per dare la colpa della sua strana domanda a sua figlia di 14 anni che indirettamente avrebbe sentito a scuola da compagni che se si sta fermi davanti a facebook a parlare tra amici, la pubblicità cambierebbe da sola in base a quello che si dice. Dopo 3 minuti per articolare questa osservazione finalmente il senatore pone la domanda: “Quindi è vero che facebook analizza le voci per cambiare la pubblicità che vediamo?”. L’alieno Mark che già dalla prima parola pronunciata dal senatore sa quanto ridicola sarebbe stata questa domanda, fissa per 2 infiniti secondi il senatore, poi con lo sguardo da terminator senza sudore e senza sforzo alcuno, si avvicina al microfono in un movimento perfettamente controllato e dice “No“. Ripete il movimento meccanico al contrario, si appoggia al dorso della sedia ed è pronto a passare alla domanda successiva.

L’esito del terzo (quarto e quinto) grado a Facebook è stata l’evidenza di come un governo potente come quello degli USA non sapesse assolutamente nulla di Facebook, non avesse alcun modo di controllarlo e soprattutto di come poterlo controllare in futuro. Soltanto quando alcuni senatori si sono rifatti alla privacy Europea, al limite dei 16 anni, all’oblio dei dati, finalmente si stava definendo qualcosa di utile.

CAMBIAMENTI GRAZIE ALL’ARRIVO DEL GDPR — Una cosa è certa, la violazione degli account di Facebook è capitata proprio poco prima dell’entrata in vigore del GDPR, una coincidenza che ha esponenzialmente aumentato l’importanza dell’entrata in vigore della nuova regolamentazione sui dati. Indipendentemente dagli aspetti legali del GDPR i quali, onestamente parlando, per noi europei sono normali e in gran parte già disciplinati se la regolamentazione precedente fosse stata applicata con cura dagli operatori, l’effetto che sta avendo sulle società costruite un pò sulla logica americana — visto che anche società Europee ma multinazionali peccano di errori gravi — è solo che positiva. Certo questo incide chiunque, anche chi è già a posto, e ci sarà così tanta confusione (e spam mail e spam regole) che alla fine non sarà tutto fatto come si deve, ma almeno un bel livello di sporcizia, soprattutto americana, sarà stata lavata via.

Ma è ancora troppo presto per dire che il mondo si è accorto di dover proteggere per bene gli utenti. O forse non lo vuole fare per davvero; in fin dei conti ha bisogno che qualche tuo dato circoli in giro per bene.

 

 

 

 

 

Da HTTP a HTTPS: server e sitemap

Recentemente abbiamo deciso di portare l’intero sito web da http ad https per via di alcune integrazioni che funzionano solo in https e per i recenti cambiamenti annunciati da Gogol (così come Google fu chiamato in tempi recenti dai alcuni nostri politici) sulla valutazione dei siti sicuri rispetto a quelli non sicuri a favore dei primi.

Al fine di evitare alcune gravi disattenzioni ho deciso di elencare qui i problemi più gravi in cui si può incorrere.

businessman in suit https

IL PROTOCOLLO HTTPS – Il primo problema è legato a come funziona il protocollo HTTPS.

Quando ci si collega al sito www.pizza.it, il protocollo HTTP (quello non sicuro di sempre) contatta il server del sito, comunica al server che cerca www.pizza.it e, se il server lo trova, lo negozia con successo e rende visibile il sito web.

Quando ci si collega al sito https://www.pizza.it, il protocollo HTTPS (quello sicuro) contatta il server del sito e comunica che c’è in arrivo una connessione sicura ma non dice niente altro a meno che il server risponda anche lui in modo sicuro. Il server allora cerca la prima configurazione sicura che conosce e da lì in poi può proseguire la negoziazione in modo sicuro con l’utente. A questo punto gli viene annunciato che si vuole www.pizza.it. Se www.pizza.it non c’è sul server, il server continua comunque a servire la prima configurazione sicura che aveva usato per comunicare, indipendentemente dal sito a cui appartenga.

In questo caso, per evitare che due siti di un stesso server, 1 sicuro e 1 no, si confondano e il secondo appaia come il primo, anche se non esiste in modalità sicura, si creano sul server delle configurazione sicure inutili (di default) affinché il server usi sempre quella per dialogare in https e affinché si blocchi nel caso il sito non esista (una trappola, praticamente).

Tale processo può fallire per i browser che non supportano la modalità di dialogo multipla su https, e può fallire per alcuni bot/spider non aggiornati e soprattutto può essere mandata online in modo errato, senza accorgersene.

TIP 1. HTTPS ON MULTIPLE VIRTUAL HOSTS ISSUE

Una volta configurato HTTPS su di un server che ospita più domini, controllate che la URL di un sito dello stesso server (e che NON sia https) non appaia comunque quando digitate la url con https, perché potrebbe non essere voluto e potreste trovarvi il vostro sito sicuro sotto la url di un’altra persona (cioè vedreste il contenuto di www.pizza.it apparire sotto https://www.mozzarella.com)! Il browser mostrerebbe errori sul certificato, ma bot di indicizzazione come il googlebot leggerebbero il sito generando nel tempo un problema di contenuto duplicato.

Dovete quindi creare il server SSL di default in cui intrappolare queste connessioni (tecnicamente sono delle “SERVER BLOCK” per virtual host apache2 o ngnix, ad es. in apache si configura un virtual host *:443 con “SSLStrictSNIVHostCheck on” default tale che dia un errore 444), ma se non potete modificare il setup del server, allora nell’header del vostro sito sicuro, inserite un controllo lato pagina web che blocchi ogni connessione che arriva e che sia all’infuori del dominio https che vi aspettate.

In PHP, se il vostro sito sicuro è https://www.pizza.it allora aggiungete:

if (isset( $_SERVER['SSL_TLS_SNI'] ))
{
if ($_SERVER['SSL_TLS_SNI'] !== 'www.pizza.it')
{
// uh, sto servendo un dominio diverso dal mio, bloccare!
header('HTTP/1.0 444 No Response');
header('Connection: close');
exit;
}
}

In mod_perl2 (se lo usate), il controllo nella sub{} sarebbe:


return Apache2::Const::NOT_FOUND if (($r->headers_in->{ 'SSL_TLS_SNI' } || 'www.pizza.it') ne 'www.pizza.it');

Il secondo controllo da fare riguarda invece le sitemap.

TIP 2. SITEMAPS, GOOGLE BOT e CANONICAL URLs da HTTP a HTTPS.

Se il problema principale di una misconfigurazione server come da punto 1 vi sembra grave, allora si può provocare un danno maggiore con le sitemap di un sito che cambia da http a https.

Che cosa succede infatti con il passaggio da http ad https con le sitemap e Googlebot? Che cosa fa Google nei proprio indici? Che pagine leggerà? Http o https? CHE COSA farà?

INDIPENDENTEMENTE da tutto quello che leggerete sui siti web, intanto GOOGLE deciderà spontaneamente di mostrare le vostre nuove pagine HTTPS anche quando gli starete passando SITEMAP con URL in http. Questo perché è una scelta di Google di spostarsi su https appena una pagina diventa disponibile con tale protocollo.

CANONICAL URL DISASTER – Il primo DISASTRO è che se passate in https e se per caso il vostro sito continua ad indicare url canoniche in http, allora su google le pagine saranno sostituite da pagine https, ma il canonico della pagina tenterà di invalidare la scelta di google, facendo piano piano perdere la visibilità della pagina, fino anche alla scomparsa stessa della pagina dai risultati di ricerca.

Per risolvere questo problema, la soluzione migliore è la seguente.

Mandato live il sito in HTTPS, creiamo sitemaps per tutte le URL in HTTPS da inviare a Google con il webmaster tools. Non vogliamo togliere le sitemap con le URL http ad oggi esistenti; queste servono per preservare l’indicizzazione precedente, ma poco dopo andranno dismesse.
Eliminiamo eventuali canonical url HTTP per trasformarle in HTTPS, oppure rimuoverle del tutto e inserire Redirect 301 lato codice verso le pagine https.
Lasciare che GOOGLE legga le url nell’indice HTTPS. A queto punto potete smettere di generare le SITEMAP in HTTP. Il webmaster tools (search console) che si usa per vedere lo stato di indicizzazione da parte di Google NON è lo stesso! Dovete aggiungere il sito con il dominio HTTPS in webmaster tools o vi perderete le statistiche sul nuovo sito! Il vantaggio di farlo dove c’è già configurato il sito http è che viene aggiunto SUBITO senza chiedervi la verifica di possesso del sito.

Attenzione, se non dite che le pagine HTTP sono diventate HTTPS con un 301 o con una tag canonical, rischiate di duplicare i contenuti e di duplicare il numero di pagine da leggere da parte del googlebot, perdendo quindi anche potenza di banda (numero di pagine lette al giorno).

Fatto questo dovete aspettare che piano piano Google vi porti al 100% in HTTPS (molto veloce). La velocità di lettura delle pagine da parte del googlebot non rallenta il cambio da http in https nelle pagine di ricerca, poichè il canonical o il 301 accelerano il processo indipendentemente dalle sitemap.

Happy HTTPS.

P.S. Se avete caricato un file nel disavow tool di Google per il sito http, ricordatevi che dovete ricaricarlo anche per il sito HTTPS perchè non viene trasferito da Google in automatico, anzi, rischiate di partire con un sito “nuovo” https già zoppicando.

Google, non è ora di buttare il Pagerank?

Il PageRank è uno degli algoritmi del motore di ricerca di Google, utilizzati per dare rilevanza ai risultati di ricerca. Alle origini di Google, fu il solo e unico algoritmo creato dai due fondatori (Brin e Page appunto), sufficientemente innovativo da sbaragliare in poco tempo TUTTI gli altri motori di ricerca.

SEO Backlinks Pagerank image

A causa del successo di Google, mentre gli utenti erano sempre più felici di poter usare un motore così innovativo, dall’altra gli operatori del settore si ingegnavano a cercare modi per apparire in cima ai risultati. Poichè l’elemento principale della formula del PageRank è il “link”, chi ti linka, chi tu linki e come ti linkano, gli operatori del settore vollero sperimentare QUALUNQUE sistema (lecito ed illecito) per imborgliare il sistema di Google.

LE DUE FASI DI GOOGLE, DIFFONDERE E NASCONDERE — A pochi anni dal lancio di Google, il PageRank divenne il punto di riferimento per stabilire il successo di ogni sito Web. Sistemi come Alexa passarono subito in secondo piano, benché comunque autorevoli. Oggi, ogni sito web ha associato un numero che indica quanto si è autorevoli agli occhi di Google.

LA FOLLIA, LINKIAMOCI TUTTI — In questa fase di adozione del PageRank da parte di ogni Webmaster e operatore web, Google creò ad esempio la toolbar con la quale si permetteva di vedere il PageRank dei siti. In questi anni di cecità del Web, il mondo si popolò di Siti di Directory, Siti per Scambio Link, Siti con Footer simili alle Pagine Gialle, Siti pieni di Pagine e queste Pagine piene di Link, Link nelle firme, link camuffati, link dalle immagini, link in pagine nascoste, link di link di link, tutto per aumentare il PageRank dei siti linkati.

Come una falla in una petroliera carica e fuori controllo, Google interviene e introduce una serie di modifiche agli algoritmi della rilevanza che mitigano (a dire di Google) l’importanza del PageRank. Ma il Web degli operatori non ci crede, e mentre Google progetta e manifesta sistemi di confusione di massa, i link continuano a rimanere il caposaldo della rilevanza e, imperterriti, aumentano con tecniche nuove; link nascosti, link dai blog, link dai blog post, blog di link, link nei template, link dei link dei link dei link, siti di contenuti poveri, ma di link autentici, schemi di link, link dai Social, Siti cammuffati da Social, link hackerati, link rubati, link ovunque pur di far salire il PageRank.

E non serve nemmeno che Google rallenti la pubblicazione delle informazioni sul PageRank, poichè nel frattempo invece di un blog, gli operatori fanno 10 blog, invece di 1 articolo, fanno 100 articoli tutti uguali per chi legge, magari diversi per Google, invece di pagare uno sviluppatore, pagano degli hackers russi per far modificare WordPress di altri e nasconderci dei link. Poichè ogni cosa che appare sul Web diventa una copia di una copia di una copia (sempre per nasconderci un link da qualche parte), Google progetta armi di difesa chiamate “Panda” e “Penguin” (e chissà quanti altri animali farà diventare antipatici) per vanificare le copie di un blog, gli schemi di link, le pagine inutili con solo link, le pagine belle con solo 1 link, e ogni tanto, è inevitabile, qualche sito innocente rimane colpito (dopo tutto è una guerra).

LE VITTIME DI GUERRA — I siti innocenti, vittime della guerra degli animali di Google versus il mondo degli operatori del Web, sono dapprima pochi, poi sempre di più, infine tanti e, ad ogni nuova versione dello Zoo di Google, i siti innocenti sono così infuriati che Google è costretto a relazionarsi per la prima volta direttamente al pubblico attraverso la figura di “Matt Cutts” tentando di far capire che “va tutto bene”. Ma la inconcludente tesi di Google per la quale contano altre cose e non i link non fa smettere la fuga di petrolio e il Web si inquina sempre di più, le vittime innocenti aumentano sempre di più fino a quando Matt Cutts, oggi 1 Agosto 2013 ieri 1 Agosto, rispondendo ad una domanda di un webmaster, dice “Sì, vi daremo qualcosa per capire di più sui link che vi danneggiano”, un passo di Google che ammette un problema oramai troppo grande da lasciare in secondo piano.

Ma mentre Google prende tempo sedando le lemente con promesse storiche, di soppiatto modifica le linee guida aggiungendo nuove regole sempre più restrittive sui link, come ad esempio “se fate una press release e mettete un link, il link non deve avere come obiettivo quello di modificare volutamente il PageRank”, oppure “Se vi fanno un Articolo che parla del vostro sito, e SECONDO NOI quello è fatto per modificare il PageRank, allora sarete declassati”, oppure “se fate delle interviste e vengono pubblicate con dei link che SECONDO NOI hanno lo scopo di modificare il PageRank, sarete puniti”.

 

Insomma, Google,  facevi prima a scrivere “Non fate più link perché altrimenti violate le guidelines”.

 

Anche perché, è proprio colpa di questo PageRank se i risultati di ricerca sono 3 buoni e 7 “pompati”. Non è ora di fare davvero qualcosa di “non evil” come, ad esempio, prendere il PageRank e rottamarlo?

IL FUTURO È GIÀ NEL PASSATO —  Una delle mosse più intelligenti di Google fu anni fa quella di comprarsi Urchin, rinominarlo in Google Analytics e darlo a tutti gratuitamente. In questo modo Google è diventato negli anni l’NSA del Web. Sa dove si trova un utente in ogni momento, quello che fa, come lo fa, se torna indietro da una pagina web, oppure se sta su di un sito. Grazie a questi dati, Google oggi può stabilire in base al comportamente dell’utente se un sito web è “utile” o “meno utile” . Quando si fa una ricerca e si segue un risultato, si visita un sito e se non è quello che si cerca, si torna indietro e si va al risultato successivo, Google lo sa. Può collegare questo comportamento ad un punteggio di Qualità, il quale farà scomparire dalla ricerca quell’inutile sito. Con questo metodo, non mi interessa se il sito appare perché linkato dal link del link; semplicemente è l’utente a castigarlo e la guerra potrebbe finirebbe con gran beneficio di tutti.

Sperando di non scoprire poi  di non essere in una guerra, ma in una battaglia.

Qualcosa è sbagliato in Apple… qualcosa è giusto in Apple.

Negli ultimi anni il profitto netto generato dalla business unit di iPhone ha raggiunto quasi il 50% di tutto l’utile Apple.

Presentando iPhone, Jobs disse che ad Apple bastava il 5% di un mercato enorme come quello dei Cellulari per cambiare il futuro dell’azienda. A quel tempo Apple aveva già stupito il mondo con l’iPod: con iPhone ha stupito ancora di più.

LA APPLE DI TIM COOK – Apple di Tim Cook ora sta affrontando un “nuovo” mercato. C’è Android e Google che finalmente, dopo eterni tentativi, ha sul mercato qualcosa di decente (via Samsung comunque e non direttamente), ma si continuano a leggere report sempre più confusi su chi lo ha più lungo. A sentire Google, sembra che il marketplace di Google Play vada già meglio di quello di Apple iTunes, ma poi altri report “neutrali” danno dati diversi. Larry Page ha smesso di twittare il numero di attivazioni di Android dopo che da 50 a 500 milioni qualuno gli ha fatto notare che non si devono contare le attivazioni per device (10 ripetute valevano 10) ma per utente (che guarda caso ora è il dato che Google usa per misura Google Play).  E a 10 anni di distanza Google ancora fa soldi solo da un solo e unico modello di business, la Search (90% delle Revenues per il Q2-2012, e il resto del 10% è… Motorola!).

Ma Apple è cambiata. Ora vuole pagare dividenti ai proprio azionisti (urrà, direi!), ha una concorrenza mai vista, ha sostituito Microsoft con Google nella guerra del PC vs Apple, ma la prima sta tornando (forse) e soprattutto Apple continua a mantenere “fede” alla sua politica di prezzi alti a dispetto di un intero mercato di spettatori convinti (ad oggi senza ragione) del contrario.

LE COSE SBAGLIATE DI APPLE – Ma gli spettatori non posso che notare cose “sbagliate”.

BAD 1 – Gli utenti oggi sono testimoni dell’uscita dell’iPad v4 e fino ad un’ora prima a nessuno veniva bloccata la vendita dell’iPad v3 ora fuori listino e Apple nemmeno parla di un “rebate” o un coupon code per questi ignari (e vittime) acquirenti; traditi aggiungerei.

BAD 2 – C’è un Safari 6.0.1 sul MacOS (con molti problemi e un Web Inspector peggiorato) e su iOS ancora non si vede; su iOS c’è ancora la versione in cui la URL bar non fa le ricerche e dell’update non si vede nulla (Apple testarda).

BAD 3 – Le Mappe di Apple? Per fortuna c’erano Applicazioni esterne per girare e trovare i Negozi a New York City. Le Google Maps via Web? Impossibili da usare e frustranti. Ma devono essere per forza solo questi 2 player a fare le cose?

BAD 4 – Viene annunciato un iMac, ma acquistabile solo tra 2 o 3 mesi, intanto annunciano specifiche, ma il prodotto “non s’ha da fare”, poichè prima han bisogno di produrre più iPad e iPhone.

Già, a proposito di iPhones e iPad.

Bastano 35 ore per mandare in “2 to 4 weeks” di attesa la disponibilità dell’iPad Mini 16GB. Il messaggio sembra “li hanno venduti tutti, che bravi”, ma qualcuno legge “ne hanno prodotti pochi”, mentre gli analisti capiscono che significa “non siete in gradi di produrre più di così”.

BAD 4 – E sembra proprio che gli analisti abbiano ragione. Al Q4 e Q3 del 2011 e al Q2 e Q3 del 2012 Apple lamenta un problema di “unità consegnabili”. Ne fan poche o si sono affidati troppo alla taiwanese Foxcomm e alle sue fabbriche in Cina? Perchè non ci credo che li vendano tutti e che siano contenti visto che in borsa, ogni volta, vengono invece castigati. E le fabbriche annunciate in Brasile avranno effetto per il 2013.

BAD 5 – Ma è peggio, se andate all’Apple Store più prestigioso in USA, quello in 5th Av. a New York City, scoprirete che negli ultimi 7 giorni non ci sono iPhone 5 da acquistare perchè… esauriti! ma nemmeno i nuovi iPod, in arrivo, e del mini Mac, bè, o arrivate 2 giorni dopo l’annuncio o non ne trovate. Ah, ovviamente trovate gli iPad 3 fino a 1 minuto dall’uscita del 4, quelli non si trattengono dal venderveli.

BAD 6 – Nello stesso momento in cui tutti questi aspetti si accavallano, Apple aumenta il prezzo minimo delle Apps da 0,79 a 0,89€. Immagino non ci sia un “declino” di acquisti nelle Apps più economiche e certo questa manovra porterà in Apple un aumento dal 3 al 5% delle revenues dalle Apps. E’ una manovra che tenta di arginare la situazione dei prossimi Quarter o era prevista da tempo?

Qualcosa di giusto in Apple, sono i Numeri. Date un occhio ad un pò di numeri sulle Apps.

Source: Fortune/CNN Reports, Dismito, Google and Apple Keynotes

  • Year 2010 Apps disponibili, Apple:Google rapporto 6:1
  • Year 2011 Apps disponibili, Apple:Google rapporto 8:1
  • 2011: circa il 15% delle Apps Apple scaricate sono a pagamento; dal 11,6% del 2010;
  • 2011: se in italia le top 50 vengono scaricate 2000 volte, in USA le top 50 sono scaricate 25,000 volte.
  • 2011: il costo medio per Apps è di 1,06€;
  • 2012: Apple ha dato ad oggi 6,5b$ agli sviluppatori; Google molto meno di 1b$;
  • Q3 2012: Apple fattura 1,8b di dollari a Quarter dalle Apps.

Insomma, benché non stia succedendo nessuna delle catastrofi augurate dagli Androidiani (anzi, lato loro la frammentazione dell’OS sta peggiorando a discapito di qualità, revenues e solidità delle apps), visto uno Store di Amazon semi deserto (e quando esce qualcosa, c’è già per Apple) e quello di Microsoft peggio del deserto del Gobi, se non fosse per gli stupendi MacBook Pro sul mercato, un ottimo Mini Mac e un iPad mini molto attraente, l’hype che circonda Apple non può fare altro che metterla sempre più in difficoltà. Il mercato è stato abituato alle “rivoluzioni” dell’iPod, di iPhone e anche di iPad aggiungerei che ora si aspetta davvero tanto da Apple.

E allora per i prossimi mesi, che parlino le Net Revenue! e che si sveglino a spostare la produzione fuori dalla Cina! E poi siamo pronti per la prossima Next Big Thing.

Per ora da Google e Microsoft non arriva nulla di nuovo, su questo siamo tranquilli 🙂 Anzi forse più cookie e tracking di quello che facciamo su Internet.

 

 

Link Building e Black SEO, 3 milioni di URL, 30 Bad Bot e 3000 IP Proxy — un caso vero

In questi ultimi anni, uno dei siti che manteniamo per un cliente particolare è un sito di bookmarking. Esso permette di caricare bookmark dal proprio Browser o aggiungere Url nei preferiti e condividerle con il pubblico, trovare siti collegati e informazioni varie. Il servizio è stato sviluppato per il mercato in lingua Inglese. Fin qui nulla di speciale.

BLACK SEO, WHITE SEO, SPAM SEO — Una delle caratteristiche del sito di bookmarking è stato quello, per sua fortuna o sfortuna, di essere inserito nel corso degli anni in una marea di siti di “Submit gratuiti” operati da società di white (buone) e black (cattive) SEO. Esattamente quelle pagine che non usereste mai per un vostro sito.

Come sapete creare LINK verso il proprio sito è alla base della visibilità nei risultati di ricerca di Gogol (ndr. Google), ovvero più hai link e più sei bello. Benchè Google ne dica, se non avete link verso il vostro sito, non esistete (salvo siate nelle segretissime White List di Google come “sito indispensabile” o “brand affermato non penalizzabile”).

Un sito di bookmark è quindi perfetto per una invasione di “link” da parte dei “black” SEO. Queste società creano pagine di FREE submit (tipo questa pagina, una delle tante osservate, backlinks.auto-im.com/freepack/free.php ), promettendo in 1 click fino a 200,000 backlink. L’abilità di questi SEO è quella di trovare un sistema per inserire link nei siti di altri e tali da poter replicare l’inserimento in modo automatico e continuativo nel tempo.

Una volta che il FREE Submit è sviluppato, gli stessi SEO sviluppano anche sistemi di verifica del vostro link per evitare che sia cancellato. Questi tools si fingono utenti con tecniche più o meno legittime e come un robot vengono a vedere se il link è presente nelle pagine del sito di Bookmark. Siti come Seostats o Seotools, ad esempio, per ogni URL che inserite nel form di verifica, un fastidioso robot viene sulle pagine del bookmark a controllare la presenza del link.

Ma la cosa non si limita a servizi online. Alcuni software fatti per inserire migliaia di articoli o link in altrettanti migliaia di siti (ovviamente non hanno nessun accordo con nessun sito) semplicemente si fingono utenti e inviano i dati attraverso dei robot e ne gestiscono pure la verifica successiva e continuativa. Ad esempio, nel 2009 un (in)famoso software chiamato Autoclick Profits vendeva per 149$ il sogno di enormi guadagni con un click. Scaricando il software si accedeva ad un tool per inserire migliaia di articoli o link in migliaia di siti online (tra cui il sito di bookmark), e gli stessi link potevano automaticamente trasformarsi in URL compatibili con sistemi di affiliazione come ClickBank grazie al quale si guadagna cliccando.

 

UNA MAREA DI URL — Sta di fatto che con il passare degli anni, il sito di bookmark raccolse i seguenti dati.

Periodo Gennaio 2010- Dicembre 2011

28,186 Url Web .it — inviati in modo “non naturale”;

2,976,560 Url Web in totale inviati in modo “non naturale”;

29 “bad bots” — sistemi malevolenti per l’invio di url;

2976 “Proxy” — utilizzati per inviare i dati;

1 tentativo di SQL Injection;

1 virus.

E le attività dei SEO non sono diminuite negli ultimi 7 mesi del 2012.

Poichè il sito di bookmarking non ha scopi di link-building o “black” SEO e fintanto che le URL inserite non vìolano  regole stabilite o di SPAM, nulla è stato fatto per evitare tale attività (tranne per i bot ostili e non tollerabili).

 

UN COSTO DI GESTIONE OLTRE BUDGET — Ma qualcosa non va. Questo è un solo sito di “pagerank 3” come milioni di altri. Se una attività di black seo permette di creare 3 milioni di link (2 univoci più o meno) in 3 anni di tempo, quanto vale questa attività su larga scala? Sicuramente parecchio in quanto ad ogni cambiamento delle pagine del sito di bookmarking, i BOT e gli SPIDER si adeguavano regolarmente.

Chi ci tutela? E’ possibile che si debba pagare per lo SPAM link di migliaia di altri siti? Poichè un LINK-IN è alla base della visibilità in Google, il mondo oggi paga questa decisione e non ottiene nulla in cambio da chi ne gode.

 

ARRIVA LA GOOGLE PENGUIN UPDATE, I COSTI AUMENTANO! — Con Novembre 2011, improvvisamente il costo “tecnologico” e di “gestione” di questo problema aumenta esponenzialmente.

Poichè i possessori dei siti che venivano inseriti erano spesso IGNARI delle tecniche di black seo che a loro insaputa avevano assunto e pagato anni prima come consulenza da parte di abili “società di posizionamento”, essi iniziarono a sentirsi dire da altrettanti consulenti che “un link-in sbagliato può punire”. Ovviamente tali voci non nacquero a caso; se i link-in non possono di certo penalizzare (al massimo non contano nulla), nessuno ne ha la certezza e il mondo si preoccupa per un cambiamento “epico” nelle regole del gioco.

Nel Marzo 2012 le voci prendono fondamento e Google annuncia PENGUIN e invia “mail” ai webmaster i cui siti sono linkati da url “non spontanee”. Toh, guarda, e ora che faranno quei 2,000,000 di webmaster? Poichè non esiste una regolare iscrizione per avere inserito un link nel sito di Bookmarking, per i webmaster è altrettanto impossibile rimuoverli.

Da Marzo 2012 le richieste a bookmark si trasformarono in una nuova tipologia di richiesta: le mail chiedevano la rimozione di link che ritenevano “impropriamente” inseriti nel sito, alcuni addirittura ipotizzando un uso illegittimo del link inserito senza la loro autorizzazione! Altri, sostenuti da un improbabile Google-zorro alla tutela dei webmaster, minacciarono di denunciare il sito a Google se il link non veniva rimosso prontamente. Inoltre, poichè questi webmaster (o agenzie di siti quando i siti erano “famosi”) dovevano mandare queste mail in quantità, non facevano spesso riferimento a URL o dati precisi e minacciavano IP e URL presto penalizzate se non si cooperava e altre fantomatiche… balle da web.

“[Editato per la Privacy] This link needs to be removed with immediate effect.

Google has been in contact with us and asked us to remove this unnatural link as it will penalise both the XXXXX.co.uk website as well as your website.
Google have also asked us to inform them of any websites that are not cooperative in this request, and to provide them with the domains and IP addresses of sites that do not comply with the request.”

 

Insomma, da ingenuo sito vittima di “abusi” il sito si trovò pure “beffato” e “accusato”.

Una delle comunicazioni del cliente ad un certo punto fu “sarebbe bello dire in faccia a questi webmaster come e chi gli ha inserito il link e di smetterla di fare richieste offensive visto che è certo che hanno usato società SEO poco attente”. Da questa osservazione, nasce di fatto anche questo post: di fronte all’immensa lista di URL che abbiamo visto e alle tecniche usate non si poteva far finta di nulla.

Il “removal di bad links” è oggi una delle questioni più traumatiche dopo l’introduzione di PENGUIN di Google, un algoritmo di controllo dei link che tenta di diminuire proprio il problema di link “non naturali”.

Il punto è che il Web fa intendere che un “bad link” significa un “bad website” e pertanto il sito che ospita link finti viene minacciato di “penalizzazione” (come si vede dalla mail di quel webmaster).

Per fortuna Google è molto più arguto e un bad link è in realtà “un link non naturale” e i siti che li ospitano — ignari o no che siano — “non subiscono nessuna penalizzazione“. Se ci sono penalizzazioni, sono sempre legate a interventi extra-algoritmici o gravi violazioni di contenuto (come sempre è stato fatto da parte di Gogol).

Ad oggi il sito di bookmarking continua a fare il suo lavoro, le tecniche di protezione dallo SPAM maligno non sono concluse, ma sono state implementate tecniche molto più adatte di quelle di anni fa e non so proprio come potrebbero fare 2,000,000 di webmaster se un giorno Google dovesse davvero penalizzarli.

 

Dominio vücumprà e Gógól.666 presto nelle vostre url

IL PRIVILEGIO DI AVERE UN DOMINIO .COM – All’inizio dei tempi, era un lusso e un privilegio avere il dominio .com. Ma registrarlo significava un “impegno” con il mondo al quale si annunciava di essere, appunto, “mondiali”. Per questo motivo, qualche cliente preferiva non volere il .com e avere solo un .it, con l’idea di dire “noi siamo piccolini”. E giammai si registrava un .net; quelli erano domini per i “network” di servizi, di aziende, di idee, tutte cose che non interessavano a clienti retailer o siti istituzionali. Questo all’inizio dei tempi. Oggi è un’altra storia.

 

ÀÈÍÓUE E IL DOMINIO VIENE QUÁ.it — Tra poco potrete avere dei domini di dubbia leggibilità, nomi con accenti e dieresi o umlaut, potrete registrare finalmente vabbuó.it con la ó come si deve, ci potrà essere un ecommerce che vende online con il nome di vucumprà.it ma anche domini assurdi tipo àèìòù.it oppure peggio gögol.it o utilizzare qualunque forma di confusione vi suggerisca la vostra fantasia.

Ovviamente non posso che pensare alle risate di quando in un FORM di registrazione email inserirete la vostra mail “alessandro@tacàdènt.it” poichè il 99% dei form di oggi scartano quel tipo di email, o peggio la salvano come tacadent.it creando beffa e danno in un colpo solo. Peggio ancora se vi verrà l’idea di iniziare ad usare i caratteri anche nel nome come nicolò@cadréga.it, una mail che per un form di iscrizione di oggi può produrre le conseguenze del sovrastimato bug dell’anno 2K.

 

CHI CONTROLLA IL DOMAIN SPAM? — Con questa novità per i domini, la voglia di inventare nuovi suffissi sembra degenerata.Non è una novità, dal dominio .TV in poi, i domini sono diventati sempre di più fuffa nel significato. É vero che per qualcuno i nuovi domini saranno utili e potrete dire che finalmente qualcuno sembra aver spiegato agli Yankee che Internet non è solo Americano (sì boys, ci sono anche le accentate nel mondo!), ma avete in mente quante nuove email false potranno arrivarvi e voi dovrete usare la lente di ingrandimento per capire se è vera o falsa? Perchè, è vero, gmail ne intercetta parecchie (ma non altrettanto yahoo mail, sveglia!), ma una info@bancadellagrandesïena.it sarà una mail Phishing pronta a portarvi altrove e a chiedervi dati, soldi e figli senza che voi ve ne accorgiate.

 

NON BASTA, ARRIVA PURE GOGOL.DEVIL — E poi, invece, han pensato almeno a tutelare quelli che invece dovrebbero avere il dominio con le accentate di diritto? Un sito (reale) come www.tuscos.it, di diritto dovrebbe avere l’equivalente milanese www.tuscòus.it e www.ciapachi.it dovrebbe avere www.ciapàchì.it, ma ovviamente i domini sono fatti per i banchetti di fantozzi: chi primo arriva, arraffa!

E la roba da arraffare non finsce qui!

No, perchè forse non lo sapete, ma si è appena conclusa (o si sta concludendo) un'”asta” internazionale che peggiorerà ancora di più le cose. Chi voleva (con tanti soldi), poteva proporre un proprio nuovo suffisso e aggiudicarsene i diritti d’uso. Sì avete capito bene.

Vi piace un dominio con il suffisso “.warez”? Va bene, è vostro. Andate in asta, decidete di pagare da un MINIMO 185,000$ in su e se vincete, è vostro. Dopodiche potrete usarlo per voi, per la vostra azienda o rivenderlo agli smanettoni di internet. Per tali geniali “nuovi” suffissi, i “big” si sono subito messi a spendere migliaia di dollari e il primo tra gli spendaccioni è il solito Google (o Gógol alla italo-berlusconiana) con i suoi 20 milioni di dollari e — lasciatemelo dire — strano che non abbia preso il dominio che gli si addice di più di tutti, il .666 (ndr. i numeri non erano nella lista dei suffissi, idea per il prossimo giro?).

Pertanto fra un pò avrete domini come www.perchè.wiki oppure andiamo.amagnà.citta e così via. I primi a gioire saranno i “phisher” (falsificatori di messaggi autentici con destinazione falsata), con migliaia di nuove alternative a loro disposizione per mandarvi spam e fare siti cloni www.ebay.ebay oppure www.ebây.it — entrambi di chi saranno?

 

TROPPE INFORMAZIONI, LA GIOIA DI GOOGLE — Con tutti questi nuovi domini, a e i o u .book .google .shop .vieniqui vucumprà.la, farvi collegare il più velocemente possibile al contenuto giusto sarà sempre più un compito di altri, tipo qualcuno che sappia gestire le informazioni per voi.

Almeno ora se pensate al sito della Lego, scrivete Lego.com; non vi serve Google “in mezzo” che fa l’arbitraggiatore di informazione (mostrando ogni tanto quello che preferisce). Invece domani come sarà? Volete un libro da Amazon per il kindle phone? bene, Amazon.com ma anche libri.kindle oppure kindle.amazon?

E peggio. Pensate ai siti corporate e ai siti di produttori mondiali. Asus! Philips! Sony! Per tutti questi già oggi è impossibile trovare le informazioni; domani saranno solo e sempre su sony.com?  Domani magari mettono le Tv sotto products-sony.hitech oppure sony.shop per lo Store, e anche sony-games.play per i giochi… Pertanto, i 20 milioni di dollari spesi dal motore di ricerca di Mountain View non sono una spesa, ma un investimento e l’aumentare della confusione della reperibilità delle informazioni è proporzionale a quanto dipenderete da Google. E Babelfish non c’è più, chi ci libererà da Google?

 

ASIA, ÜBER ALLES — Infine, non ci interessa molto, ma fa decidere spesso le strategie recenti delle aziende Occidentali: oggi i “big” temono di perdere il treno per l’Asia, chi fa tardi, prende di meno da un mercato enorme. E allora perchè non accontentarli? Il più grande gioco online di Ruolo, World of Warcraft sta preparando da più di 1 anno un’espansione completamente dal sapore Orientale, Apple sta abbracciando la Cina come il panda un albero, quindi perchè i gestori di domini non dovrebbero produrre 10 (sono cauto) volte tanto il fatturato permettendo accentate, dieresi e… ideogrammi? Sì, anche ideogrammi.

E quindi, se prima arriverete comunque su www.alibaba.com, domani avrete 10 milioni di domini in più con ideogrammi come http://파일을 찾을 수 없음 che non potremo certo digitare e visitare. Ah no, che stupido… Andremo su Gógól che sarà l’unico sistema per trovare, leggere e navigare siti di domini e contenuti di lingua diversa dalla nostra e magari anche di contenuti della nostra lingua, perchè un .book o un .shop o un .store non sono sufficienti per dirci che fa cosa.

 

 

La Posta Prioritaria di Google? Ma per piacere…

Nell’intento di una nobile “caratteristica” aggiuntiva di Gmail, una localizzazione sfortunata dalla versione Inglese di Priority Inbox porta nella Gmail nostrana la “Posta Prioritaria” di Google, ovvero la possibilità di filtrare “meglio” i messaggi di posta non-spam.

A tutti, e penso pure ai responsabili marketing di Google più che altro, quando si pensa a “Posta Prioritaria”, viene in mente il servizio off-line di Poste Italiane con il quale il 50% delle lettere viene inviato da quando è stato introdotto. Un ottimo prodotto, direi anche.

E allora perchè chiamarla proprio “Posta Prioritaria“? Sapendo dell’esistenza del servizio di Poste Italiane, non era il caso di attenersi un pò di più alla traduzione “diretta” in Casella Prioritaria? Dopo tutto del servizio di Poste Italiane non ha nulla a che fare e svolge un compito completamente diverso.

Se c’è dell’affronto (competitivo?) da parte di Google a Poste Italiane, mi pare invece ci sia più che altro una gaffe di localizzazione e una scelta infelice, più nell’ottica di creare semplicemente confusione negli utenti che nel rendere minore l’importanza degli annunci di Google sul piano pratico.

Don’t be Evil… detto dal diavolo…

Ah, se non bastasse, qualcuno dica a Google che ci sono 7 marchi depositati per Posta Prioritaria da parte di Poste Italiane dal 2003 ad oggi.

Facebook 250 milioni di utenti, what’s next?

250 milioni è il numero di utenti registrati di Facebook. La società di San Francisco vale oggi circa 10 miliardi di dollari, valore calcolato dopo la recente raccolta di 200 milioni di dollari dalla Digital Sky Technologies russa.

immagine

FACEBOOK VALE 10 MILIARDI DI DOLLARI – 10 miliardi di dollari (10 Billions USD) per una società che prevede di fatturare circa 500 milioni di dollari nel 2009, 20 volte meno di quanto si è auto valutata, e il CEO Mark Zuckerberg prevede “billions in revenues” entro cinque anni da oggi, quindi una crescita di almeno 4 volte il fatturato.

Chiunque a questo punto dovrebbe volere una IPO di Facebook.

Il valore della società è indirettamente confermato da Facebook stessa che nel tentativo di acquistare Twitter per 500 milioni di dollari aveva valutato se stessa per circa 8b$ (8 USD Billions), 2 in meno del recente calcolo, ma la Twitter non riteneva corretto nessun valore oltre i 4b$.

Lo spaccato delle Revenues di Facebook H1 2009  ci dice che:

  • 125 milioni di dollari dai cobrand
  • 150 milioni dall’accordo con Microsoft (adcenter)
  • 75 milioni dai servizi
  • 200 milioni dal content match proprietario (gli ads testuali gestiti da Facebook direttamente)

ALLA CONQUISTA (COPIA) DI TWITTER – Dopo il mancato acquisto di Twitter, Facebook sta velocemente clonando tutte le opzioni che rendono Twitter uno strumento unico ad oggi, soprattutto le molteplici capacità che Twitter offre alle aziende e che invece mancano in Facebook, meno B2B oriented, sperando di limitare la crescita del primo tra le Fortune 500 aziende.

Se spacchiamo in 2 le revenue di Facebook, 125+200 sono revenues da Pubblicità gestita da Facebook stessa, 150 dal deal con MS e 75 dai servizi, il “paying user”. In percentuale, 13% dagli utenti, 59% da se stesso e 28% da Microsoft. Deludente il 13% dagli Utenti, ma si sa che quello che conta è il banner o il text link.

Twitter, molto piu’ giovane nel revenue model, con un decimo degli utenti di Facebook di oggi previsti per fine 2009, ad oggi ha un’unica revenue stream. Sorpresa, Microsoft.

Parecchi servizi B2B a pagamento (addon) verranno introdotti in Twitter, ma ad oggi la società guadagna solo dall’accordo con Microsoft con un deal a Revenue Shares tale da generare per l’H1 del 2009 circa 500,000$, ovvero 0.5 milioni di dollari, 300 volte meno dell’equivalente accordo di Ms in Facebook. Visto che il prodotto Microsoft si basa su di un bid medio identico per i due market place, la differenza è sicuramente nel diverso numero di utenti (1 a 10) e soprattutto nel diverso modello di advertising (piu’ invasivo in Facebook, ancora sperimentale in Twitter tale da generare in Facebook 30 click paganti per ogni utente di Twitter, il che è abbastanza ovvio se si osservano i due tipi di portali).

I forecast delle due aziende sono ovviamente molto aggressivi, ma indubbio è che il 75% delle loro revenues sarà Text advertising e Cobrand anche tra 5 anni, di cui oggi il 30% da un partner esterno come Microsoft.

WHAT’S NEXT ? – Quanto è appetitoso un servizio come Facebook?

E’ la stessa Microsoft a non voler perdere l’opportunità di scalare il servizio di Facebook nel caso si ripetesse una seconda MySpace (con il senno di poi direi fortunatamente evitato per Microsoft). Ed è per lo stesso Zuckerberg di Facebook sperare che prima o poi qualcuno voglia far valere davvero 10$b un’acquisizione da parte di qualche “gigante”. E’ lo stesso CEO di Facebook che dichiara di avere già rifiutato parecchie PA, ma per quanto? Dopotutto quei 250 milioni di utenti fanno solo il 13% delle revenues, mentre il resto è ADS, un business che altri sanno fare molto bene. Inoltre quei 250 milioni di utenti potrebbero abbracciare facilmente una servizio mail come Hotmail, Gmail o Yahoo mail se solo l’avessero a disposizione, mentre ad oggi Facebook è “solo” una grande piattaforma “social”.

MAIL REINVENTED BY GOOGLE (o Yahoo?) – Con Google Wave, Ancora una volta, è lo stesso Google a ricordare a tutti quanti che la killer application è la mail e niente altro (search a parte). Non è gTalk, non una chat migliore, non è gChat, uno scambio foto o un social bookmarking. Però non e’ neanche gMail come la conosciamo oggi.

La killer application del futuro e’ la mail con le funzioni di social sharing integrate […] — e tutto alla velocità di Google.

La killer application del futuro e’ la mail con le funzioni di social sharing integrate, dove una piattaforma come Facebook e una come gMail sono completamente integrate, dove chattare e mandare mail sono la stessa cosa, dove un profilo o un messaggio sono accessibili nello stesso modo, dove un feed e una discussione sono la stessa cosa, le foto si draggano, la musica si condivide insieme ai propri amici — e tutto alla velocità di Google.

Questo ci sta dicendo Google. Il futuro della mail e’ la mail. Perche’ chattare fuori dalla mail? Perche’ un profilo se non e’ nella mia mail? Perche’ non posso taggarti, mandare e vedere foto e amici e gruppi di fan direttamente dalla mia gMail?

Con questa prospettiva, Microsoft e Yahoo devono pensare a come trasformare se stessi nella stessa direzione e non disperdere i servizi e farli crescere da soli. Infatti e’ Yahoo! 360 che chiude e migra rifatto dentro Yahoo! mail, ma ancora come molte limitazioni e preistoriche opzioni di condivisioni (ad esempio lo scambio foto e’ un link a flickr.com e non una vera integrazione ajax, ma qualcosa si muove di certo in Yahoo! mail; basta andare a vedere che cosa fa Xoopit appena acquistata dal colosso di Sunnyvale).

Microsoft risploverebbe un po’ di successo per la sua mail — che tra i tre colossi è come sempre quella meno innovativa e senza idee chiare  — e parecchie impression per Adcenter con una community stile Facebook, magari riciclarne la piattaforma Ajax per integrarla sui portali MSN un pò troppo pesantini in certe cose. Search a parte è l’acquisizione che potrebbe interessare di più.

Questo Facebook da solo farà sempre piu’ gola, ma 250 milioni di utenti e quelle impression sono un valore unico per chi ha mail e ha parecchi clienti sul content advertising e chi meglio di Google, Yahoo! o Microsoft sanno farlo? Facebook stessa? E’ possibile, se si arroccherà in difesa come ha fatto Yahoo! per la Search.

Cloud Computing: un chip per Apple iTunes?

Originalmente nati come HaaS “hardware as a service” e SaaS “Software as a Service”, il cloud computing e’ la convergenza delle architetture hardware e software che permettono di elaborare dati, raccogliere dati, dare dati in modo distribuito.

In parove povere, Clound Computing e’ il servizio che viene distribuito in reti locali o mondiali per migliorarne l’utilizzo da parte degli utenti. Nato nel 1999, oggi l’esempio piu’ classico e’ la Search di Google: il servizio e’ il piu’ vicino possibile alla tua adsl per massimizzare la sensazione di velocita’ del servizio.

cloud-computing

E’ normale infatti imputare al servizio un disservizio della rete che ci collega ad esso. Tale comportamento dovuto alla latenza di una rete o alle applicazioni che usiamo per navigare spesso trasferiscono al servizio la sensazione di poverta’ dell’offerta. E’ facile, insomma, dare la colpa al servizio finale anche quando in realta’ esso non ha nessun problema, ma lo ha qualcosa tra noi e loro. Una pagina web che si blocca e la colpa e’ del sito web, quando magari e’ un plugin di Flash o Java malfunzionante o la rete di Alice adsl lenta a risolvere gli IP per collegarsi.

Per questo il Clound Computing trasporta il piu’ vicino possibile all’utente il servizio desiderato. IBM, Microsoft, Google con il superbo progetto Google App Engine, Amazon nomi sulla bocca di tutti. Con Amazon, che per prima tenta di portare il servizio a piu’ utenti possibili, attraverso le AWS (il servizio a pagamento di Amazon per gli sviluppatori) e’ possibile dare anche una propria FOTO e chiedere ad amazon di darla agli internauti attraverso il loro servizio di cloud computing. Se un giapponese visualizzera’ la vostra foto, la ricevera’ da server in giappone, se e’ un tedesco, da server di Francoforte. Costoso per i piccoli, efficace per i grandi.

IL CLOUD COMPUTING DI APPLE – Quando Apple presento’ AppStore, il servizio di iTunes per distribuire le applicazioni di iPhone, una riga tra le slide del keynote di Jobs recitava “Fastest Delivery Worldwide”; questa riga sottolineava come AppStore avrebbe massicciamente utilizzato una tecnlogia Cloud Computing per distribuire le applicazioni iPhone nel mondo. Questo significa che quando siete su iTunes di un PC o su AppStore direttamente dall’iPhone e scaricate una applicazione, questa sara’ trasferita nel tempo minore possibile.

Il fatto che le applicazioni di iPhone (e anche la musica di iTunes) vi vengano recapitate alla massima velocita’ e’ fondamentale per associare al servizio la sensazione di “Velocita’”. E’ importante per il successo dello stesso.

Per questo Apple fa uso di tecnologia Software e Hardware as a Service per iTunes.

La disponibilita’ di banda larga permettera’ a questi servizi di diventare sempre di piu’ utilizzati e utilizzabili. Nei videogames, sono state annunciate importanti operazioni di digital download. Benche’ nel 2009 e’ previsto che solo il 2% del mercato del Gaming sara’ venduto tramite digital download, la distribuzione di applicazioni e media tramite reti sara’ sempre piu’ attuale.

Quando Apple e Google annunciano di voler costruire proprie farm, la notizia anni fa non associava immediatamente alla necessita’ di poter deliverare velocemente non solo pagine web, ma anche applicazioni e musica.

NON TUTTO E’ MUSICA – Parallelamente alle applicazioni e alla musica di iTunes, Apple sta giocando un’altra delle partite secondo lo stile di “Jobs”. Con l’esperienza fatta in Disney-Pixar e con le porte (quasi) spalancate dopo il successo di iTunes, e’ facile per Jobs ipotizzare un business plan che coinvolga le major cinematografiche per la distribuzione dei film e delle serie TV anche su iTunes. Be’ lo fa gia’, ovviamente. In iTunes USA e’ stato appena annunciata la disponibilita’ di film e serie in formato HD (High Definition).

Distribuire film (in HD) non e’ proprio come distribuire file audio o applicazioni iPhone di 10 megabyte. E’ vero che ci sono applicazioni di 100 megabyte gia’ su iTunes, ma la media e’ di 10 megabyte.

Quando si parla di “acquistare” una serie TV in HD da iTunes, vuole dire accedere da 300 a 900 megabyte di dati da scaricare. Se volete scaricare un film in HD magari con audio 5 canali, si parla di almeno 3 o4 gigabyte. Se per la musica bastava vincere lo scetticismo delle major, per i film c’e’ un problema di delivery dei media.

TECNOLOGIE HARDWARE PROPRIETARIE PER LA DISTRIBUZIONE DI SOFTWARE – E’ OnLive, il servizio di distribuzione dei videogiochi online che si annuncia come “il futuro di internet” e sostenuta addirittura da Steven Spielberg, la prima azienda che vuole trasferire dati (videogiochi in questo caso) in una nuova modalita’ composta da tecnologie di compressione proprietarie e streaming parziale dei giochi.

Forse per questo Apple, da anni avida accentratrice di tutti i nuovi film in uscita al formato proprietario Quicktime MP4 e recentemente indaffarata ad assumere ingegneri AMD, puo’ voler pensare ad una propria tecnologia di compressione hardware che permetterebbe di distribuire applicazioni di megabyte o film di gigabyte in meta’ tempo, di diventare la piu’ grande scatola di distribuzione digitale e di aumentare il valore dei propri macbook e desktop (o iPhone e media TV vari che si inventera’) con il semplice fatto che possono vedere i film… meglio e piu’ velocemente cosi’ come iPod fu per la musica.

Android: Donut, Chesscake, hamburgar che sia, il biz di google è… ancora la search!

Android 1.5 è stato presentato da Google e ora la sfida con iPhone e Windows Mobile è ufficialmente lanciata. Secondo Google ci sono il triplo di utenti di cellulari al mondo (3,2 miliardi) rispetto agli utenti Internet.

google-android

Benchè la previsione di vendita dei cellulari che utilizzano Android (i cosiddetti gPhone) è stata parecchio conservativa (8 milioni di gphone previsti nel 2009 contro i 23,9 di Apple iPhone), le news dell’annuncio riportano il dato percentuale di crescita (900% di gphone rispetto al 70% di Apple iPhone), dimenticando che gphone parte da zero e che da zero a 9 unità vendute è già un +900%.

 

DONUT, CHESSCAKE, HAMBURGAR CHE SIA, IL BIZ DI ANDROID E’ NELLA SEARCH – Ma Google prepara già la sua battaglia successiva. Con la stessa partita, Android 2.0 “Donut” può supportare schermi video molto più ampi e compatibili con i 10″ pollici, ad esempio, dei netbook.

E’ chiaro che più device Google possieda e più utenti utilizzeranno le applicazioni Google e tra tutte, la Search, l’unica che ad oggi è la fonte di revenue per il colosso di Mountain View.

Che sia un gphone o un netbook, gmail, calendar, google maps, voice search, web search, tutte quante per Google dovranno e vorranno solo far fare click sui risultati di ricerca, locali si spera. Per questo Google sta investendo parecchio per espandere le proprie attività sulla Local Search (quella che, ad esempio, in Milano vi permette di trovare luoghi e destinazioni commerciali vicino a voi). Per Google le revenues del 2008 sono state del 97% provenienti dalla Search a pagamento (e il 3% è licenza di tecnologia e server).

 

APPLE ITUNES LEADER NEL DOWNLOAD A PAGAMENTO – Quando si guarda Apple invece, si scopre che iTunes è stata la startup più veloce al mondo a rientrare a break even (già nel 2007 1,9bn$ al 30% di margine, dati Billboard US e 4 miliardi di canzoni vendute), potersi pagare lo sviluppo di iApps, lo store online delle applicazioni per iPhone, distribuire musica e applicazioni in cloud computing e diventare il numero 1 al mondo in fatto di applicazioni vendute per telefonini. Non da meno, è il negozio di musica più redditizzio al mondo, più di Amazon o di qualsiasi prodotto Microsoft, Zune compreso.

Insomma, Apple fa già soldi dal solo iPhone e iTunes ha già sfornato più di un miliardo di applicazioni, di cui un 15% pagate, soldi per Apple, ma anche soldi per gli sviluppatori.

 

IL SUCCESSO DIPENDE DAL RAPPORTO CON GLI SVILUPPATORI – Sono gli stessi sviluppatori che commentano il successo di iTunes e di iPhone annunciando di “fare finalmente soldi” da una applicazione per cellulari, dopo numerosi tentativi falliti per Symbian o RIM. Non a caso iTunes sforna applicazioni nuove ogni giorno, ci sono i titoli più famosi di ogni casa, Electronics Arts, Namco, Filemaker, etc mentre Android.com sembra una pagina “under construction” senza applicazioni in vendita.

Insomma, il successo di iPhone non è solo nell’avere rivoluzionato la piattaforma dei mobile, ma di avere re-inventato il successo sulla disponibilità e facilità di installazione e sviluppo di applicazioni gratuite e commerciali. Apple ha consolidato il rapporto con i developers in questi anni, grazie alla rivoluzione Intel/Unix di MacOS da essere stata definita “una buona iniziativa” da parte di Ballmer stesso.

Vi ricordate quando iPhone fu introdotto, Nokia tentò di dissuaderne l’acquisto mostrando i problemi d’utilizzo della tastiera virtuale del prodotto di Apple? Bè, sappiate che quella, in grado di seguire la rotazione del telefonino, è una delle feature di “punta” di Android 1.5 di Google.

 

LA QUALITà ALLA BASE DEL PIACERE D’UTILIZZO – Infine, c’è un dettaglio di qualità su cui vale la pena spendere due parole. Il prodotto di Apple e le patent che lo proteggono permetto all’iPhone di avere dettagli e animazioni “fisiche” piacevoli. Ad esempio, le applicazioni si aprono con un effetto zoom (e nello stesso modo si chiudono), le pagine alla fine di una sequenza sbattono contro al margine del telefonino se si tenta di farle passare alla pagina successiva, le foto letteralmente “volano” nel cestino o nella posta se spostate e le icone sono tutte ombreggiate e perfettamente disegnate. E’ uno stile che Apple porta con sè da sempre; Android è il prodotto che invece nasce su carattere cosmopolita, meno dettagliato, ma più aperto, ma per questo gli manca un tocco di classe e di piacevole usability.

Apple controlla la qualità del prodotto con rigide regole di programmazione e distribuzione. Una delle questioni per cui le applicazioni Apple non possono produrre processi in background è per evitare che una applicazione programmata male produca un processo zombie che rimanga appeso e consumi calcolo macchina e pertanto vi faccia durare un iPhone metà delle ore. A chi dareste la colpa se il vostro iPhone facesse metà della durata di quanto scritto nelle specifiche? Ad Apple sicuramente. Per questo Apple vuole maniacalmente controllare lo sviluppo del suo device. Qualità significa successo. 

Se Android, che è basato su Linux 2.6, diventerà un open source oppure sarà dato in licenza a più case, per Google il controllo della qualità sarà uno dei problemi più grandi. E’ vero che le applicazioni di Google sono fatte da Google e lo sviluppo delle specifiche di Android è anche controllato dal consorzio creato da Google chiamato The Open Handset Alliance, ma dare Android a Sony Ericsson, Motorola, HTC, significa permette lo sviluppo da terzi e da terzi di terzi e generalmente i consorzi permettono l’adozione di standard ma non il controllo della qualità dello sviluppo. Dopo quanti mesi il vostro Windows sembra andare metà della velocità del primo giorno? Se succedesse questo anche per Android, non ci sarà battaglia.

« Articoli meno recenti