Skip to Content

Aktuelles

Open Source Social Network (SharkNet) für Schulen

24.08.2015 12:29 Uhr

Der NSA-Skandal 2013 offenbarte enorme Sicherheitsmängel insbesondere bei Social Networks. Offenbar wurden in großen Umfang Daten auf den Servern abgefischt und analysiert. Datenschutzrechte wurde verletzt und Firmen sind wegen der Industriespionage alarmiert. Verschlüsselungssysteme wurden teilweise umgangen.

Im einem aktuellen Projekt wird jetzt ein dezentrales Open Source Social Network (SharkNet) für Schulen gebaut. Es arbeitet gänzlich ohne Server, ist optimiert für die mobile Nutzung und setzt wenn möglich drahtlose Kurstreckenprotokolle ein. Das System basiert auf dem Open Source Entwickler-Framework Shark, das im Projekt zur Release-Reife entwickelt wird. SharkNet bietet die Funktionen von üblichen Social Networks, ist aber nicht Teil des WWW und in einigen Varianten nicht einmal Teil des Internet. Es verfügt über eine dezentrale PKI. Möglicher Datenmissbrauch wird radikal reduziert. SharkNet zeigt die Marktreife dezentraler mobiler Systeme.

SharkNet soll technisch zeigen wie sichere Kommunikation erfolgen kann – mit und ohne ein Internet, das
permanten überwacht wird. Das Projekt wird außerdem die Medienkompetenz von Kindern und Jugendlichen stärken, indem ein sicheres mobiles Social Network (SharkNet) entsteht. Das Projekt zeigt, dass aktuelle Webtechnologie nicht alternativlos ist. Nutzer/innen können nur weniger sorglos arbeiten, wenn Alternativen
vorhanden und bekannt sind.

SharkNet wird ein mobiles dezentrales Social Network sein. Es basiert auf folgenden Prinzipien:
1.  Es gibt keinen Server. Alle pflegen ihre Kontaktdaten im Smartphone, auf dem Rechner. Es gibt kein zentrales Verzeichnis.
2.  Der Austausch erfolgt End-zu-End-Verschlüsselt, d.h. die Daten werden zwischenzeitlich an keiner Stelle entschlüsselt – das leistet nicht einmal die (offiziell) als sicher eingestufte De-Mail.
3.  Der Datenaustausch erfolgt über beliebig viele technische Kanäle, das kann klassische E-Mail sein, TCP-Verbindungen über das Internet aber auch dezentrale Netze wie Wifi-Direct oder Bluetooth. SharkNet arbeitet daher auch ohne Internet.

Shark und SharkNet sind Open-Source unter LGPL.

Das Projekt wird von Prof. Dr.-Ing. Thomas Schwotzer (HTW Berlin) und  Prof. Pamela Schaudin (Beuth Hochschule) gemeinsam mit den Partnern Cleopa GmbH, Immobilien Scout GmbH und der Katholische Theresienschule Berlin umgesetzt.

Weitere Infos zu Shark und zu SharkNet http://www.sharksystem.net

Gefördert wird das Projekt durch die Senatsverwaltung für Wirtschaft, Technologie und Forschung (http://www.ifaf-berlin.de/projekte/sharknet/).

 

Abgelegt unter: 

Kick-off of Grants4Apps Accelerator 2015

19.08.2015 12:18 Uhr

Grants4App geht in eine neue Runde.

Bayer HealthCare fördert mit Grants4Apps die Entwicklung von innovativen
Software-, Hardware-, Technologie- oder Prozesslösungen für den
Gesundheits- und Pharma-Bereich. Fünf innovative Projekte erhalten jeweils 50.000 Euro Startkapital,
Laborräume für fünf Monate in Berlin und Beratung durch Mentoren.

Am 21.08.2015 findet das Kick-Off statt, auf dem sich die Startup präsentieren.

http://www.meetup.com/de/STEM4health-Berlin/events/219096384/

 

Mehr zum Grants4Apps Accelerator findet ihr hier:

https://www.grants4apps.com/accelerator/

Abgelegt unter: 

Berlin will freien Zugang zu wissenschaftlichen Publikationen ausbauen – Open Access-Arbeitsgruppe eingesetzt

08.06.2015 17:55 Uhr

Die Senatsverwaltung für Bildung, Jugend und Wissenschaft will den freien und
gleichberechtigten Zugang zu wissenschaftlichen Publikationen ausbauen und eine
generelle Open Access-Strategie für Berlin entwickeln. Dafür hat die
Senatsverwaltung eine Arbeitsgruppe „Open Access-Strategie für die
Veröffentlichung wissenschaftlicher Publikationen an Berliner Wissenschaftsinstitutionen“
eingesetzt.

 

Mehr Informationen in der Pressemitteilung der Senatsverwaltung für Bildung, Jugend und
Wissenschaft

Abgelegt unter: 

Neues 3D-Stadtmodell des Business Location Centers

17.03.2015 13:49 Uhr

Hauptstadt-Modell als Open Data zugänglich

Berlin hat europaweit eine führende Rolle in der Digitalwirtschaft – ab heute ist ein 3D-Stadtmodell der deutschen Hauptstadt als Open Data öffentlich zugänglich. Internetnutzer hatten bisher mit dem Modell des Business Location Centers von Berlin Partner für Wirtschaft und Technologie die Möglichkeit, das Berliner Stadtgebiet realitätsgetreu online zu erkunden – nun können sie die Daten auch selbst nutzen. Egal ob Wissenschaftler, Spieleentwickler, Städteplaner, Architekt oder Grafiker – das großflächige Modell Berlins steht als kostenloser Download zur Verfügung.

Für das Modell wurden rund 550.000 Gebäude auf 890 km² Stadtgebiet aus der Luft fotografiert und vermessen. Nun erfolgt die Bereitstellung der 3D-Gebäudedaten des Stadtmodells über ein webbasiertes Serviceportal im Rahmen der Open Data Initiative des Landes Berlin. Das Open Data Modell versetzt User in die Lage, sowohl die originären CityGML-Daten für das gesamte Stadtmodell als auch für Teilbereiche der Stadt zu beziehen und für eigene Zwecke weiterzuverarbeiten. Über eine Serviceschnittstelle können einzelne Gebäude oder Teilbereiche in unterschiedlichen 3D-Datenformaten ausgewählt und heruntergeladen werden. „Für technologiebasierte Unternehmen, Startups der Digitalwirtschaft wie auch Wissenschaftseinrichtungen bietet das Modell eine einmalige Grundlage für Forschung und Entwicklung. Berlin als digitale und innovative Stadt baut mit dem Modell seine Vorreiterrolle in Europa aus“, sagt Dr. Stefan Franzke, Geschäftsführer der Berlin Partner für Wirtschaft und Technologie GmbH.
 
Für Prof. Dr. Jürgen Döllner, Leiter des Lehrstuhls für Computergrafische Systeme am Hasso-Plattner-Institut in Potsdam, bietet das Stadtmodell eine einzigartige Datenbasis: „Wir planen, das Berliner 3D-Stadtmodell bei der Erforschung und Entwicklung von Verfahren und IT-Lösungen für die Visualisierung und Analyse von 3D-Raummodellen einzusetzen. Konkret wollen wir das Modell im Bereich "Urban Analytics" als Basis für die Kommunikation von komplexen raumbezogenen Daten und Prozessen verwenden.“
 
Das 3D-Stadtmodell ist ein Projekt der Senatsverwaltung für Wirtschaft, Technologie und Forschung und der Berlin Partner für Wirtschaft und Technologie GmbH. Im Rahmen der Open Data Initiative des Landes Berlin stellt die Senatsverwaltung für Wirtschaft, Technologie und Forschung die LoD2 Gebäudedaten und die im Jahr 2013 erfassten digitalen Oberflächenmodelle zum freien Download zur Verfügung.
 
Link zum 3D-Stadtmodell und zu frei verwendbarem Videomaterial:
http://www.businesslocationcenter.de/downloadportal

 
Informationen zu Berlin Open Data finden Sie unter http://daten.berlin.de/

 

 

Pressemeldung vom 13.03.2015: http://www.berlin-partner.de/nc/presse/presseinformationen/detailansicht...

„Research-Kit“ - Apple stellt ein neues quelloffenes iOS-Framework für den Gesundheitssektor vor

13.03.2015 15:23 Uhr

Am 9.3.2015 hat Apple in seiner Spring Forward-Veranstaltung ein neues MacBook und die Apple Watch vorgestellt. Aber nicht nur das - als dritte Innovation präsentierte Apple „Research-Kit“, ein Open Source Projekt im Gesundheitssektor.  „Research-Kit“ bietet eine Programmierschnittstelle für medizinische Tests, welche die Forschung an verschiedensten Krankheiten wie z.B Diabetes, Parkinson, Asthma, Herzkreislauferkrankungen oder Brustkrebs unterstützen kann.

Dabei nutzen Smartphone Besitzer die mit iOS 8 eingeführte Softwareumgebung „Health-Kit“.  Mit dieser können Anwender bereits ihre persönlichen Gesundheitsdaten sammeln und beispielsweise dem Hausarzt zur Verfügung stellen. Dass diese Millionen von Daten in anonymisierter Form nun auch der Forschung zugänglich gemacht werden, ist der Grundgedanke von Research-Kit. Die freiwilligen Teilnehmer an „Research-Kit“ brauchen innerhalb der Apps nur zustimmen, ausgewählte Daten der medizinischen Forschung zu übermitteln.

Die beiden großen Vorteile des Systems: zum einen können Daten durch die iPhone-Sensoren und Messgeräte automatisch erfasst werden. Die Forscher erhoffen sich dadurch zuverlässigere Daten ohne die unvermeidbaren Fehler einer manuellen Dateneingabe. Zum anderen können über die Smartphones erheblich größere Patientengruppen angesprochen werden. „Research-Kit gibt der Gemeinschaft der Wissenschaftler Zugang zu einer vielschichtigen Bevölkerung auf der ganzen Welt und bietet mehr Möglichkeiten Daten zu erheben als jemals zuvor“, teilte ein Apple Manager mit.

Der Erfolg von „Research-Kit“ ist bereits nach zwei Tagen vielversprechend. Innerhalb von weniger als 24 Stunden haben sich mehr als 11.000 iPhone Nutzer zur Teilnahme an einer medizinischen Studie der Stanford Universität zu Herz- und Kreislaufkrankheiten entschlossen. Zum Vergleich: um eine entsprechende Teilnehmerzahl für medizinische Studien zu erreichen, mussten Forscher bisher etwa ein Jahr veranschlagen und 50 medizinische Zentren mobilisieren.

Fünf Apps verschiedener US-Universitätskrankenhäuser sind inzwischen in den USA erhältlich, die Studien zu Asthma, Brustkrebs, Diabetes und Parkinson durchführen. Unter anderem haben sich Oxford und Stanford in der Zusammenarbeit mit dem Open Source Projekt auf die Erforschung von Herzkrankheiten spezialisiert.

Apple erhalte dabei keinen Einblick in die erhobenen Daten, die direkt an die betroffene Forschungseinrichtung weitergeleitet werden, betonte Apple-Chef Tim Cook. Apple sehe in „Research-Kit“ kein Geschäftsmodell und werde im April das Framework quelloffen veröffentlichen.

Research-Kit-Apps sind anfänglich nur in US-App-Stores erhältlich, sollen zukünftig aber auch in anderen Ländern verfügbar sein.
 

 

Mehr Informationen gibt es hier: https://www.apple.com/researchkit/

 

Quelle heise online: http://www.heise.de/mac-and-i/meldung/ResearchKit-iPhone-Nutzer-koennen-...

Abgelegt unter: 

Univention-Absolventenpreis 2015: Bis zum 22. März können noch Arbeiten eingereicht werden

13.03.2015 12:59 Uhr

Letzter Aufruf zur Einreichung:
Absolventen können noch bis zum 22.März ihre Abschlussarbeiten mit einem Thema im Umfeld von Open-Source-Software einreichen. Der Preis wird dieses Jahr auf der re:publica in Berlin verliehen und ist mit insgesamt 3.500 Euro dotiert. Vergeben wird der Preis an Arbeiten, die innerhalb der Jahre 2013-2015 beurteilt wurden. Weiterhin sollen die Arbeiten in Deutsch oder Englisch verfasst sein und einen bedeutsamen Beitrag zur Verbreitung von Open Source leisten.

 

Weitere Informationen unter: https://www.univention.de/ueber-uns/absolventenpreis/

Abgelegt unter: 

Open Data als Treibstoff für die digitale Wirtschaft

17.02.2015 16:07 Uhr
Das Kabinett beschließt Änderung des Informationsweiterverwendungsgesetzes
Wenn man früher Daten wie die Apothekendichte in Bremen, die
Verteilung der Parkbänke in Rostock oder die Hartz IV –Zahlungen in
Berlin-Marzahn wissen wollte, musste man sich an die betreffende staatliche
Stelle wenden - und konnte noch an Weiterverwendungsverboten scheitern. Nun
wurde jedoch das deutsche Recht dem EU Recht angepasst: Ohne Einwilligung der
Behörden ist es nun generell erlaubt, öffentliche Daten einzusehen und zu
verwenden. Auch die dafür zu zahlenden Entgelte werden im Gesetz präzisiert.
Die Bundesregierung hat bereits vor zwei Jahren mit GovData
ein Datenportal initiiert, in das die staatlichen Stellen ihre Daten,
Statistiken, Karten usw. eingeben und so der privaten und wirtschaftlichen
Nutzung zugänglich machen (www.GovData.de). Nach der Testphase wird dieses
Pilotprojekt nun verstetigt und von einer eigenen Geschäftsstelle betreut. Neu
ist, dass jetzt auch Bibliotheken, Museen und Archive an GovData
teilnehmen.
Abgelegt unter: 

Freifunk für Alle - Zahl der Freifunk-Knoten in Berlin wächst rasant

19.02.2015 13:56 Uhr

Freifunk ist der bekannteste Name für Initiativen, in denen Bürger ihre WLAN-Zugänge untereinander verbinden und so freie, unabhängige Netzwerkstrukturen aufbauen.

Bereits über 203 „Freifunk“- Knoten gibt es in Berlin. Das war zumindest der Stand vom Oktober 2014. Laut  http://berlin.freifunk.net/network/map/ haben inzwischen allein in Berlin und Umgebung 352 „Freifunker“ ihr Netzwerk angebunden. In einem von vielen Freifunkern bewohnten Berliner Kiez kann das schon mal dazu führen, dass man in der Zahnarztpraxis mit dem Freifunk-Netz surfen kann, wie ein euphorischer Twitter-User berichtet.

Das Ziel?
Die Vision von Freifunk ist die Verbreitung freier, flächendeckender, nicht kommerzieller Netzwerke, die die lokalen Sozialstrukturen fördern und die Kommunikationsmedien demokratisieren. Die Medienanstalt Berlin-Brandenburg (mabb) unterstützt dieses Vorhaben im Rahmen ihrer WLAN- Initiative.

Mehr Informationen und den Link zur kompletten Broschüre gibt es hier: http://www.mabb.de/information/digitale-welt/freifunk.html

Abgelegt unter: 

"Berlin kann ein führender Open-Source-Player in der Big-Data-Analyse werden" - Interview mit Professor Volker Markl vom Berlin Big Data Center

11.04.2014 10:36 Uhr

Big Data ist in aller Munde, denn viele Institutionen und Unternehmen wollen in Zukunft ihre geschäftskritischen Entscheidungen datenbasiert treffen können. Hierbei kann sie das Berlin Big Data Center, kurz BBDC, unterstützen. Wir haben uns mit Professor Volker Markl, dem Sprecher der hochschulübergreifenden Einrichtung, unterhalten.

Lieber Herr Professor Markl, können Sie sich kurz vorstellen und uns etwas zu Ihrer Forschung erzählen?

Gerne. Mein Name ist Volker Markl, ich bin Professor an der Technischen Universität Berlin und verantwortlich für das Fachgebiet Datenbanksysteme und Informationsmanagement. Gleichzeitig habe ich noch eine Status-only-Professur an der Universität in Toronto an der School of Information und bin seit 2009 Sprecher der Forschergruppe Stratosphere der Deutschen Forschungsgemeinschaft (DFG) und sowie Sprecher des Berlin Big Data Center (BBDC), eines Kompetenzzentrums, das vom Bundesministerium für Bildung und Forschung (BMBF) zum Oktober 2014 in Berlin, unter Federführung der TU Berlin,  eingerichtet werden wird.

Ich führe Big Data Forschung schon seit über 15 Jahren durch, also lange bevor dieser Begriff geprägt wurde. Mein derzeit wichtigstes Forschungsprojekt ist die oben genannte DFG Forschergruppe Stratosphere, deren Arbeit, wenn man so will, die Grundlage für das BBDC bildet. Die TU Berlin ist in diesem Projekt mit zwei Fachgebieten eingebunden. Neben mir ist auch Professor Odej Kao mit dabei. Außerdem kommen noch zwei Fachgebiete der HU Berlin hinzu, geleitet durch Professor Christoph Freytag und Professor Ulf Leser und auch Professor Felix Naumann vom Hasso Plattner Institut.

Wir haben gemeinsam ein Open-Source-System zur massiv parallelen Analyse von Informationen entwickelt, welches Sie unter http://stratosphere.eu/ herunterladen können. Stratosphere ist ein weltweit führendes Open-Source-System zur skalierbaren Datenanalyse und eine wichtige Grundlage für das Berliner Kompetenzzentrum zum Thema Big Data. Wir kombinieren im BBDC die Bereiche skalierbares Datenmanagement und maschinelles Lernen. Ziel ist es, gemeinsam ein System für die skalierbare Datenanalyse zu entwickeln, welches insbesondere die Verfahren des maschinellen Lernens, die heutzutage für die Datenanalyse sehr wichtig sind, effizient ausführen zu können. Wir werden diese Technologien im BBDC auf Basis von Statosphere weiterentwickeln.

Was passiert im BBDC dabei genau und warum ist das so wichtig?

Datengetriebene Entscheidungen revolutionieren gerade Wissenschaft, Wirtschaft und Gesellschaft. Wir wollen im BBDC dieses Phänomen, das populär Big Data genannt wird, erforschen und Technologien und Expertise in Deutschland für dieses Zukunftsthema schaffen und damit die Wettbewerbsfähigkeit Deutschland in Wissenschaft und Wirtschaft sichern. Die TU Berlin,  das Zuse Instituts Berlin, das Fritz-Haber Institut, das Deutsche Forschungszentrum für Künstliche Intelligenz und die Beuth Hochschule werden sich im BBDC damit befassen, wie wir Datenanalysen auf großen und heterogenen Datenmengen mit hoher Datenrate effizient verarbeiten können. Das große Problem ist, dass die  Nutzung von Big Data derzeit einigen wenigen Experten oder großen Firmen vorbehalten ist. Privatpersonen oder auch kleinere und mittlere Unternehmen haben hierzu bisher kaum Möglichkeiten oder Expertise. Wir wollen durch das BBDC die Mengen an Menschen, die mit Big Data umgehen können,  vergrößern sowie die Zeit und die Kosten für die Datenanalyse senken. Dies wird zu einer Demokratisierung von Big Data führen und einen großen Mehrwert für Wirtschaft, Wissenschaft und Gesellschaft schaffen. Ein großes Thema wird durch die Frage bestimmt „Wie kann ich Datenanalyse möglichst einfach machen?“ und damit einem möglichst großen Benutzerkreis ermöglichen, derartige Analysen auszuführen. Dabei soll natürlich durch das BBDC auch ein verantwortungsbewusster Umgang mit den Daten sichergestellt werden.
Jeder von uns führt Datenanalysen durch. Bei sehr einfachen Datenmengen nutze ich eventuell eine Tabellenkalkulation. Sobald es dann etwas umfangreicher wird und ich z.B. Regressionen verwende, benötige ich z.B. ‘ R‘, was ja auch Open Source ist, oder eben eine Sprache wie Python, in der ich dann diese Algorithmen beschreibe. Dadurch erkenne ich dann Zusammenhänge und kann dieses „Gold“ aus den Daten heben und Mehrwert generieren.

All diese Verfahren gibt es ja heute schon…

Genau, aber das Problem dabei ist, dass es nur bei relativ kleinen Datenmengen funktioniert oder bei Datenmengen, die man nicht als Big Data bezeichnen würde. Bei Big Data geht es ja nicht nur um die Größe der Datenmengen, sondern wie gesagt, auch darum wie schnell diese Daten neu ins System kommen, wie komplex die Daten und natürlich auch die Analysen sind. Das BBDC will nun neue Verfahren und Technologien entwickeln die diese Analyse massiv parallel vornehmen können. Heute muss ich eigentlich Systemprogrammierung beherrschen, damit ich so etwas machen kann.

Wirkt es sich stark auf den Analyseprozess aus, dass zusätzlich zu den eben beschriebenen großen vorhandenen Datenmengen, kontinuierlich neue große Datenmengen hinzukommen?

Das ist ein weiterer Aspekt. Man spricht dabei im Kontext von Big Data auch von Velocity. Dabei muss ich, während ich die Berechnungen durchführe, auch noch neue Daten berücksichtigen und die Antworten sehr schnell, potentiell kontinuierlich, berechnen. Auch das muss so ein System lösen können.

Für den Mehrwert ist das möglicherweise ganz entscheidend, da die neuen Daten unter Umständen die aus den alten Daten gewonnenen Aussagen beeinflussen. Und das eigentliche Ziel ist es ja, durch die Analyse der Daten, möglichst tragfähige Aussagen über die Zukunft treffen zu können.

Das wäre jetzt anwendungsabhängig, aber in einigen Anwendungen möchte ich genau diese Predictive Analytics wie Trendanalysen oder Vorhersagen durchführen. In anderen Feldern möchte ich vielleicht nur bestehende Zusammenhänge erkennen. Aber insgesamt soll beides möglich sein. Genau das sind eben diese komplexen Zusammenhänge. Ich baue mir ein Modell, das funktioniert und will dieses Modell dann konstant mit neuen Daten füttern.

Und welche Rolle spielt in diesem Zusammenhang Open-Source-Software?

Wir haben ja schon Vorarbeiten in diesem Bereich geleistet und ein offenes System entwickelt, welches sogar weltweit führend ist. Es gibt ein weiteres sehr populäres System im Big-Data-Bereich, das Hadoop-System, das vielleicht bekannt ist. Das von uns entwickelte System Stratosphere, was ich ja eben schon erwähnt habe, ist zwischen 2008 und 2013 hier in Berlin entstanden. Das funktioniert auch wunderbar, Sie können es runterladen und auf Ihrem Laptop laufen lassen. Sie können es aber auch auf einem großen Rechnercluster laufen lassen, wenn Sie das wollen. Dort können Sie dann eigene Datenanalyseprogramme schreiben und das System wird die dann ausführen. Das machen Sie dann z.B. in Java oder Scala.

Das System hat auch schon eine Menge Nutzer und Entwickler. Es gab im letzten November einen Stratosphere-Summit, den 100 Leute aus knapp neun Ländern besucht haben. Außerdem findet es Anwendung in diversen Berliner Startups und anderen Firmen. Somit hat das Ganze schon eine kritische Masse erreicht und verselbstständigt sich auf eine gewisse Art und Weise. Google unterstützt Stratosphere jetzt auch mit dem „Summer of Code“, bei dem Studenten von Google dafür bezahlt werden, dass sie Beiträge zu Stratosphere leisten. Neben solchen Aktivitäten entwickeln auch andere Institutionen gemeinsam mit uns an der TU Berlin das System weiter.

Das Ganze wird auch noch in den europäischen Raum wachsen, weil es ganz massiv vom European Institute of Technology unterstützt wird. So ist, dadurch dass Stratosphere Open Source ist, ein ganz eigenes Ökosystem darum entstanden, was sonst in dieser Form nicht möglich gewesen wäre. Außerdem soll Stratosphere bald an die Apache Foundation übergeben werden, die Incubation ist bereits in Vorbereitung.
Leider haben wir uns den Namen allerdings nicht schützen lassen, so dass wir ihn jetzt ändern müssen. Jemand aus den USA hat sich diesen Namen bereits schützen lassen. Daher wird der Name Stratosphere für das System sich bald ändern.

Es ist nicht immer üblich, dass Projekte, die an Universitäten entwickelt werden, unter eine Open-Source-Lizenz gestellt werden. Warum wurde sich bei Stratosphere dafür entschieden?

Ein Grund ist eher persönlich: Ich bin der Meinung, dass Entwicklungen, die mit öffentlichen Geldern gefördert werden, auch der Öffentlichkeit zu Gute kommen sollten.

Der zweite Punkt ist, dass man eine kritische Masse, sowohl an Benutzern als auch an Entwicklern, nur durch Open Source erreichen kann – gerade in diesem Bereich. Das kann eine Forschergruppe, auch mit mehreren Universitäten im Verbund, gar nicht leisten.

Der dritte Punkt ist, dass eine große Einigkeit sowohl unter Wissenschaftlern als auch unter Wirtschaftskonzernen besteht, dass derartige Infrastrukturen vielfach Open Source sein werden. Hintergrund ist, dass sich das Ökosystem gewaltig geändert hat. Die Firmen erkennen, dass sich Geschäft mit Hilfe von Open-Source-Systemen in diesem Bereich generieren lässt.

Das ist übrigens auch eine große Chance hier für uns in Berlin. Wir können hier einer der weltweit führenden Open-Source-Player im Bereich der Big-Data-Analyse werden.

Sind Sie selber auch in Open-Source-Projekten aktiv?

Ich muss gestehen, nein. Ich habe leider nicht mehr die Zeit selber zu entwickeln. Aber einige meiner Mitarbeiter sind da sehr aktiv. Als Professor entwickelt man ja eher die Visionen. Viel der Anerkennung gebührt da auch den Doktoranden, die sehr viel Entwicklungsarbeit leisten. Aber auch wenn ich selber nicht aktiv bin, sehe in diesem Bereich ein großes Potential.

Ein letzte Frage noch. Benutzen Sie selbst auch Open-Source-Software?

Ja, das tue ich. Ich benutze z.B.  Open Office, allerdings in Kombination mit Closed-Source-Lösungen. Ich arbeite auch mit der Sprache ‚R‘. Außerdem mit Open-Source-Cloudlösungen wie ownCloud. Einige Programme fallen einem dann im Alltag gar nicht mehr auf wie z.B. der Firefox als Webbrowser.

Vielen Dank für das Interview.

Bildquelle: TU Berlin/PR/Ulrich Dahl

Weitere Informationen: http://bbdc.berlin

Abgelegt unter: 

Berliner Big-Data-Tool Stratosphere wurde in den Apache Incubator aufgenommen

16.04.2014 15:28 Uhr

Das in Berlin entstandene Big-Data-Analysetool 'Stratosphere' ist am 14. April als Projekt in den Apache Incubator aufgenommen worden. Jetzt benötigt Stratosphere Unterstützung durch die Community, damit es ein vollwertiges Apache-Projekt werden kann.

Die Meldung zur Übernahme in der Incubator ging am Abend des 14. April über Twitter raus und wird nicht nur (aber vor allem) die Wissenschaftler der TU Berlin aus dem Fachbereich 'Datenbanksysteme und Informationsmanagement' gefreut haben. Dort wurde Stratosphere 2008 geboren und hat sich seitdem stetig weiterentwickelt.

War bis vor einigen Tagen noch von einer Vorbereitung zur Überführung in den Apache Incubator die Rede, so steht nun ein weiteres ambitioniertes Ziel im Fokus: Die Übernahme als vollwertiges Projekt durch die Apache Software Foundation. Bei Stratosphere handelt es sich um ein System zur Big-Data Analyse, welches die Analyse auf besonders großen und heterogenen Daten ermöglichen soll. Damit könnte es auch das durch die Apache Software Soundation geführte System Hadoop ablösen.

Stratosphere soll in den kommenden Jahren vom Berlin Big Data Center (BBDC) um deklarative Spezifikationen, automatische Optimierung, Parallelisierung und Hardwareadaption von fortgeschrittenen Datenanalysen erweitert werden. Für dieses durchaus als ehrgeiziges Ziel zu bezeichnende Vorhaben benötigt Stratosphere nun vor allem die Unterstützung durch die Community. Konkret ist man auf der Suche nach weiteren Nutzern und Committern, also Personen, die etwas zum Projekt beisteuern (wie etwa Programmcode). Helfende Hände sind also bei der Festigung Berlins als weltweit führender Standort in Sachen Big Data herzlich willkommen.

Weitere Informationen zum Thema:

Stratosphere auf GitHub
Antrag zur Aufnahme als Projekt der Apache Software Foundation
Stratosphere-Webseite

Bildquelle: Marius B (CC BY 2.0)