Die vorausgegangenen Ausführungen haben gezeigt, dass der Mediatisierungsansatz des Internets einer empirischen Überprüfung zugeführt werden kann. Es hat sich aber gleichzeitig auch herausgestellt, dass die Operationalisierung nicht unproblematisch ist. In Kapitel 4.2.2 wurde bereits eine alternative Möglichkeit zu einer umfassenden empirischen Entsprechung des theoretischen Ansatzes vorgeschlagen, die hier noch einmal aufgegriffen werden soll. Sie bezog sich im Wesentlichen auf die Erhebung der Daten. Aufgrund der Digitalität sowie der Automatisierbarkeit der Internetkommunikation stehen aber ganz neue wissenschaftliche Methoden zur Verfügung, die bisher ungenutzt geblieben sind. Durch Software-Anwendungen wird es möglich, jeden einzelnen Klick im Internet, jede genutzte Seite oder jede verschickte E-Mail zu protokollieren und diese Daten dann entsprechend auszuwerten.
Ähnliches passiert seit vielen Jahren bereits, wenn auch nicht im Kontext wissenschaftlicher Forschung. Aufgrund des Gesetzes zur Vorratsdatenspeicherung sind Telekommunikationsdienstleister zur Speicherung von E-Mails, Telefonanrufen und IP-Adressen verpflichtet. Darüber hinaus sammeln sowohl Hardwarehersteller als auch Provider Daten, um personalisierte Werbung zu schalten oder die Datensätze für sonstige Zwecke der Marktforschung zur Verfügung zu stellen. Und natürlich protokollieren die eigenen internetfähigen Geräte ebenso wie bestimmte Software die internetbezogenen Aktionen der User. Sogenannte Firewalls beispielsweise schützen Rechner vor Viren, indem Absender- und Zieladressen des Internetdatenverkehrs fortwährend mit einer Datenbank abgeglichen werden. Dabei wird beispielsweise geprüft, ob eine Schadsoftware, etwa ein Programm zum Aufzeichnen persönlicher Passwörter, Daten zu einer indizierten Adresse des Internets übermittelt. Unabhängig von den Details ist hier zunächst von Interesse, dass eine Protokollierung des gesamten Internetverkehrs eines Gerätes möglich und überdies nicht ungewöhnlich ist. Datenschützerinnen und -schützer kritisieren zurecht an vielen Stellen die »Datensammelwut« von Konzernen und staatlichen Behörden. Aber gerade die ethischen Standards wissenschaftlicher Forschung schließen die Weitergabe entsprechender Daten an Dritte aus.
Analog zur Ermittlung der TV-Quoten könnte auch das Internetverhalten untersucht werden. Dazu braucht es allerdings keinen Teleskomat36, sondern eine potente Software. Da User ohnehin bei der Internetnutzung online sind und auf alle internetfähigen Geräte auch Programme installiert werden können, braucht es keine externe Hardware. Inzwischen besitzen viele User mehrere internetfähige Geräte, weshalb die entsprechende Software dann auf allen Geräten installiert sein müsste. Schwieriger als die Erhebung gestaltet sich die Auswertung. Im Unterschied zum Fernsehen gibt es nicht eine überschaubare Anzahl an Sendern, sondern eine große Menge an Angeboten. Dabei ist nicht nur an die vielen Homepages zu denken, sondern auch an E-Mail-Dienste, Online-Spiele oder an Dateitransfer. Dementsprechend bestünde der Hauptteil einer solchen Arbeit in der Kategorisierung und Zuordnung der gewonnenen Daten. Gleichwohl müssten nicht alle Medien des Internets gleichzeitig untersucht werden, aber es wäre theoretisch möglich.
Mit einer derartigen Erhebungsmethode könnten im Unterschied zu der oben ausgeführten Empirie die Daten nicht retrospektiv erhoben werden, aber dafür würden sehr detaillierte Verlaufsdaten gewonnen. So müsste es keine Panelwellen geben, sondern es fände eine permanente Erhebung statt. In der Folge wären dann Ländervergleiche oder Aufschlüsselungen nach Tageszeiten möglich. Sowohl die Frequentierung bestimmter Angebote als auch die Differenzierung des Internets wären realisierbar. Der letztgenannte Aspekt verweist dabei auf die Mediatisierungsperspektive. Daten, die auf diese Weise erhoben wären, würden auch Vergleiche zwischen gesellschaftlichen Funktionsbereichen ermöglichen. Ebenso könnten User unabhängig von Selbstauskünften, nach ihren Nutzungsgewohnheiten typisiert werden. Im Grunde geht es aber zunächst darum, Nutzungsdaten, die bisher nur den Betreiberinnen und Betreibern der Webdienste ohnehin vorliegen, zu kumulieren und sozialwissenschaftlich zugänglich zu machen. Damit zeigt sich, dass mit Hilfe der zu erwartenden Datenfülle viele bisher thesenhaft formulierten Annahmen beantwortet werden könnten. Eine zentrale Voraussetzung hierfür besteht in der Transdisziplinarität eines solches Projektes. Beiträge aus der Informatik, aus den Medienwissenschaften und aus der Soziologie wären in einem entsprechenden Forschungsvorhaben konsequent aufeinander zu beziehen. Im Übrigen werden ähnliche Daten im Rahmen von Big Data seit kurzer Zeit an vielen Stellen (außerhalb der Wissenschaft) erhoben.