von Thorsten Ricke
Statistik und Sichtungsnachweis dieser Seite findet sich am Artikelende
[1.] Tr/Fragment 074 01 - Diskussion Zuletzt bearbeitet: 2012-07-09 22:36:10 Graf Isolan | Fragment, Gesichtet, Karstens 2006, KomplettPlagiat, SMWFragment, Schutzlevel sysop, Tr |
|
|
Untersuchte Arbeit: Seite: 74, Zeilen: 1-4 |
Quelle: Karstens_2006 Seite(n): 31, 32, Zeilen: 31: 38-39; 32: 1-2 |
---|---|
Die meisten Anwendungen des Internets funktionieren im Grundsatz genauso: Beim Aufrufen einer Website richtet der lokale Computer an den entfernten Netzwerkrechner die Anforderung bestimmter Inhalte und bekommt diese dann gezielt übermittelt. | Die meisten Anwendungen des Internets funktionieren im Grundsatz genauso: Beim Aufrufen einer Website richtet der lokale Computer an den entfernten
[Seite 32] Netzwerkrechner die Anforderung bestimmter Inhalte und bekommt diese dann gezielt übermittelt. |
Quelle nicht genannt, trotz wörtlicher Übernahme. Fortsetzung von der Vorseite: Tr/Fragment_073_11 |
|
[2.] Tr/Fragment 074 06 - Diskussion Zuletzt bearbeitet: 2012-07-24 20:34:15 Hindemith | BauernOpfer, Fragment, Gesichtet, Karstens 2006, SMWFragment, Schutzlevel sysop, Tr |
|
|
Untersuchte Arbeit: Seite: 74, Zeilen: 6-8, 11-16 |
Quelle: Karstens 2006 Seite(n): 32, Zeilen: 2-3, 9-14 |
---|---|
Die Problematik besteht beim Unicast aber in der Übertragungskapazität bzw. der von den Teilnehmern beanspruchten Bandbreite. Die Netzauslastung steigt für jede einzelne Punkt-zu-Punkt-Verbindung, denn der Versender der Signale muss für jeden Empfänger auf der ganzen Länge des Übermittlungsweges die entsprechende Bandbreite zur Verfügung stellen. Die Bandbreite, die sich auf Seiten der Nutzer auf vielleicht 1.000 verschiedene Anschlüsse verteilt, addiert sich dann beim Anbieter der Inhalte (Server) proportional zur Anzahl der Empfänger auf.165 Normalerweise ist das leicht zu verkraften, weil Internet-Server gewöhnlich mit sehr großen Übertragungskapazitäten ans Netz angebunden sind, aber bei großen Datenmengen und/oder besonders hohen Nutzerzahlen gerät das Netz an seine Grenze.166
165 Gebhard/Kavs, FKT 2001, 13, 14; Schnepf, FKT 2007, 58, 61. |
[Zeilen 2-3]
Die Problematik besteht hierbei in der Übertragungskapazität bzw. der von den Teilnehmern beanspruchten Bandbreite. [Zeile 9-14] Denn die Bandbreite, die sich auf Seiten der Interessenten (Clients) auf vielleicht 1.000 verschiedene Anschlüsse verteilt, addiert sich beim Anbieter der Inhalte (Server) auf. Normalerweise ist das leicht zu verkraften, weil Internet-Server gewöhnlich mit sehr großen Übertragungskapazitäten ans Netz angebunden sind, aber bei großen Datenmengen und/oder besonders hohen Nutzerzahlen gerät das Netz an seine Grenze. |
Die Quelle wird zwar genannt, die durch einen Zwischensatz unterbrochene weitgehend wörtliche Übernahme von Gedanken und Beispiel ist jedoch nicht ersichtlich. Der nicht übernommene Mittelteil wird nicht als Plagiat gewertet. |
|
[3.] Tr/Fragment 074 21 - Diskussion Zuletzt bearbeitet: 2012-07-09 22:41:44 Graf Isolan | BauernOpfer, Fragment, Gesichtet, Karstens 2006, SMWFragment, Schutzlevel sysop, Tr |
|
|
Untersuchte Arbeit: Seite: 74, Zeilen: 21-31 |
Quelle: Karstens_2006 Seite(n): 41, Zeilen: 21-24, 26-33 |
---|---|
Mit dieser Problematik haben es letztlich alle Distributionstechniken zu tun, die nicht nach dem Broadcasting-Prinzip arbeiten, aber auf eine zentrale Datenquelle zugreifen müssen. Zwar ist die Internet-Infrastruktur für gewaltige Anforderungen gerüstet, aber dennoch existieren stets zwei Nadelöhre - einerseits der Anschluss des jeweiligen Benutzers, dem es ggf. an Bandbreite mangelt, andererseits der Anschluss und die technischen Kapazitäten des Inhalte-Lieferanten, der stets eine bestimmte Obergrenze für gleichzeitige Zugriffe hat. Hinzu kommt, dass auf der Seite des Anbieters hohe Kosten für das ins Netz hineingepumpte Datenvolumen anfallen. Dadurch wird diese Distributionsform leicht entweder technisch unmöglich und/oder ökonomisch unrentabel - jedenfalls solange es sich um Free-TV handelt.168
168 Karstens, Fernsehen digital, 41. |
Mit dieser Problematik haben es letztlich alle Distributionstechniken zu tun, die nicht nach dem Broadcasting-Prinzip arbeiten, aber auf eine zentrale Datenquelle zugreifen müssen: Zwar ist die Internet-Infrastruktur für gewaltige Anforderungen gerüstet [...], aber dennoch existieren stets zwei Nadelöhre – einerseits der Anschluss des jeweiligen Benutzers, dem es ggf. an Bandbreite mangelt, andererseits der Anschluss und die technischen Kapazitäten des Inhalte-Lieferanten, der stets eine bestimmte Obergrenze für gleichzeitige Zugriffe hat. Hinzu kommt, dass auf der Seite des Anbieters hohe Kosten für das ins Netz hineingepumpte Datenvolumen anfallen. Dadurch wird diese Distributionsform leicht entweder technisch unmöglich und/oder ökonomisch unrentabel – jedenfalls, so lange es sich um Free-TV handelt. |
Die Quelle ist zwar angegeben, aus dem Verweis wird aber für den Leser der Umfang und der wörtliche Charakter der Übernahme nicht ersichtlich. |
|
Letzte Bearbeitung dieser Seite: durch Benutzer:Hindemith, Zeitstempel: 20120724203655