Skip to Content

Aktuelles

Kick-off of Grants4Apps Accelerator 2015

19.08.2015 12:18 Uhr

Grants4App geht in eine neue Runde.

Bayer HealthCare fördert mit Grants4Apps die Entwicklung von innovativen
Software-, Hardware-, Technologie- oder Prozesslösungen für den
Gesundheits- und Pharma-Bereich. Fünf innovative Projekte erhalten jeweils 50.000 Euro Startkapital,
Laborräume für fünf Monate in Berlin und Beratung durch Mentoren.

Am 21.08.2015 findet das Kick-Off statt, auf dem sich die Startup präsentieren.

http://www.meetup.com/de/STEM4health-Berlin/events/219096384/

 

Mehr zum Grants4Apps Accelerator findet ihr hier:

https://www.grants4apps.com/accelerator/

Abgelegt unter: 

Berlin will freien Zugang zu wissenschaftlichen Publikationen ausbauen – Open Access-Arbeitsgruppe eingesetzt

08.06.2015 17:55 Uhr

Die Senatsverwaltung für Bildung, Jugend und Wissenschaft will den freien und
gleichberechtigten Zugang zu wissenschaftlichen Publikationen ausbauen und eine
generelle Open Access-Strategie für Berlin entwickeln. Dafür hat die
Senatsverwaltung eine Arbeitsgruppe „Open Access-Strategie für die
Veröffentlichung wissenschaftlicher Publikationen an Berliner Wissenschaftsinstitutionen“
eingesetzt.

 

Mehr Informationen in der Pressemitteilung der Senatsverwaltung für Bildung, Jugend und
Wissenschaft

Abgelegt unter: 

Neues 3D-Stadtmodell des Business Location Centers

17.03.2015 13:49 Uhr

Hauptstadt-Modell als Open Data zugänglich

Berlin hat europaweit eine führende Rolle in der Digitalwirtschaft – ab heute ist ein 3D-Stadtmodell der deutschen Hauptstadt als Open Data öffentlich zugänglich. Internetnutzer hatten bisher mit dem Modell des Business Location Centers von Berlin Partner für Wirtschaft und Technologie die Möglichkeit, das Berliner Stadtgebiet realitätsgetreu online zu erkunden – nun können sie die Daten auch selbst nutzen. Egal ob Wissenschaftler, Spieleentwickler, Städteplaner, Architekt oder Grafiker – das großflächige Modell Berlins steht als kostenloser Download zur Verfügung.

Für das Modell wurden rund 550.000 Gebäude auf 890 km² Stadtgebiet aus der Luft fotografiert und vermessen. Nun erfolgt die Bereitstellung der 3D-Gebäudedaten des Stadtmodells über ein webbasiertes Serviceportal im Rahmen der Open Data Initiative des Landes Berlin. Das Open Data Modell versetzt User in die Lage, sowohl die originären CityGML-Daten für das gesamte Stadtmodell als auch für Teilbereiche der Stadt zu beziehen und für eigene Zwecke weiterzuverarbeiten. Über eine Serviceschnittstelle können einzelne Gebäude oder Teilbereiche in unterschiedlichen 3D-Datenformaten ausgewählt und heruntergeladen werden. „Für technologiebasierte Unternehmen, Startups der Digitalwirtschaft wie auch Wissenschaftseinrichtungen bietet das Modell eine einmalige Grundlage für Forschung und Entwicklung. Berlin als digitale und innovative Stadt baut mit dem Modell seine Vorreiterrolle in Europa aus“, sagt Dr. Stefan Franzke, Geschäftsführer der Berlin Partner für Wirtschaft und Technologie GmbH.
 
Für Prof. Dr. Jürgen Döllner, Leiter des Lehrstuhls für Computergrafische Systeme am Hasso-Plattner-Institut in Potsdam, bietet das Stadtmodell eine einzigartige Datenbasis: „Wir planen, das Berliner 3D-Stadtmodell bei der Erforschung und Entwicklung von Verfahren und IT-Lösungen für die Visualisierung und Analyse von 3D-Raummodellen einzusetzen. Konkret wollen wir das Modell im Bereich "Urban Analytics" als Basis für die Kommunikation von komplexen raumbezogenen Daten und Prozessen verwenden.“
 
Das 3D-Stadtmodell ist ein Projekt der Senatsverwaltung für Wirtschaft, Technologie und Forschung und der Berlin Partner für Wirtschaft und Technologie GmbH. Im Rahmen der Open Data Initiative des Landes Berlin stellt die Senatsverwaltung für Wirtschaft, Technologie und Forschung die LoD2 Gebäudedaten und die im Jahr 2013 erfassten digitalen Oberflächenmodelle zum freien Download zur Verfügung.
 
Link zum 3D-Stadtmodell und zu frei verwendbarem Videomaterial:
http://www.businesslocationcenter.de/downloadportal

 
Informationen zu Berlin Open Data finden Sie unter http://daten.berlin.de/

 

 

Pressemeldung vom 13.03.2015: http://www.berlin-partner.de/nc/presse/presseinformationen/detailansicht...

„Research-Kit“ - Apple stellt ein neues quelloffenes iOS-Framework für den Gesundheitssektor vor

13.03.2015 15:23 Uhr

Am 9.3.2015 hat Apple in seiner Spring Forward-Veranstaltung ein neues MacBook und die Apple Watch vorgestellt. Aber nicht nur das - als dritte Innovation präsentierte Apple „Research-Kit“, ein Open Source Projekt im Gesundheitssektor.  „Research-Kit“ bietet eine Programmierschnittstelle für medizinische Tests, welche die Forschung an verschiedensten Krankheiten wie z.B Diabetes, Parkinson, Asthma, Herzkreislauferkrankungen oder Brustkrebs unterstützen kann.

Dabei nutzen Smartphone Besitzer die mit iOS 8 eingeführte Softwareumgebung „Health-Kit“.  Mit dieser können Anwender bereits ihre persönlichen Gesundheitsdaten sammeln und beispielsweise dem Hausarzt zur Verfügung stellen. Dass diese Millionen von Daten in anonymisierter Form nun auch der Forschung zugänglich gemacht werden, ist der Grundgedanke von Research-Kit. Die freiwilligen Teilnehmer an „Research-Kit“ brauchen innerhalb der Apps nur zustimmen, ausgewählte Daten der medizinischen Forschung zu übermitteln.

Die beiden großen Vorteile des Systems: zum einen können Daten durch die iPhone-Sensoren und Messgeräte automatisch erfasst werden. Die Forscher erhoffen sich dadurch zuverlässigere Daten ohne die unvermeidbaren Fehler einer manuellen Dateneingabe. Zum anderen können über die Smartphones erheblich größere Patientengruppen angesprochen werden. „Research-Kit gibt der Gemeinschaft der Wissenschaftler Zugang zu einer vielschichtigen Bevölkerung auf der ganzen Welt und bietet mehr Möglichkeiten Daten zu erheben als jemals zuvor“, teilte ein Apple Manager mit.

Der Erfolg von „Research-Kit“ ist bereits nach zwei Tagen vielversprechend. Innerhalb von weniger als 24 Stunden haben sich mehr als 11.000 iPhone Nutzer zur Teilnahme an einer medizinischen Studie der Stanford Universität zu Herz- und Kreislaufkrankheiten entschlossen. Zum Vergleich: um eine entsprechende Teilnehmerzahl für medizinische Studien zu erreichen, mussten Forscher bisher etwa ein Jahr veranschlagen und 50 medizinische Zentren mobilisieren.

Fünf Apps verschiedener US-Universitätskrankenhäuser sind inzwischen in den USA erhältlich, die Studien zu Asthma, Brustkrebs, Diabetes und Parkinson durchführen. Unter anderem haben sich Oxford und Stanford in der Zusammenarbeit mit dem Open Source Projekt auf die Erforschung von Herzkrankheiten spezialisiert.

Apple erhalte dabei keinen Einblick in die erhobenen Daten, die direkt an die betroffene Forschungseinrichtung weitergeleitet werden, betonte Apple-Chef Tim Cook. Apple sehe in „Research-Kit“ kein Geschäftsmodell und werde im April das Framework quelloffen veröffentlichen.

Research-Kit-Apps sind anfänglich nur in US-App-Stores erhältlich, sollen zukünftig aber auch in anderen Ländern verfügbar sein.
 

 

Mehr Informationen gibt es hier: https://www.apple.com/researchkit/

 

Quelle heise online: http://www.heise.de/mac-and-i/meldung/ResearchKit-iPhone-Nutzer-koennen-...

Abgelegt unter: 

Univention-Absolventenpreis 2015: Bis zum 22. März können noch Arbeiten eingereicht werden

13.03.2015 12:59 Uhr

Letzter Aufruf zur Einreichung:
Absolventen können noch bis zum 22.März ihre Abschlussarbeiten mit einem Thema im Umfeld von Open-Source-Software einreichen. Der Preis wird dieses Jahr auf der re:publica in Berlin verliehen und ist mit insgesamt 3.500 Euro dotiert. Vergeben wird der Preis an Arbeiten, die innerhalb der Jahre 2013-2015 beurteilt wurden. Weiterhin sollen die Arbeiten in Deutsch oder Englisch verfasst sein und einen bedeutsamen Beitrag zur Verbreitung von Open Source leisten.

 

Weitere Informationen unter: https://www.univention.de/ueber-uns/absolventenpreis/

Abgelegt unter: 

Open Data als Treibstoff für die digitale Wirtschaft

17.02.2015 16:07 Uhr
Das Kabinett beschließt Änderung des Informationsweiterverwendungsgesetzes
Wenn man früher Daten wie die Apothekendichte in Bremen, die
Verteilung der Parkbänke in Rostock oder die Hartz IV –Zahlungen in
Berlin-Marzahn wissen wollte, musste man sich an die betreffende staatliche
Stelle wenden - und konnte noch an Weiterverwendungsverboten scheitern. Nun
wurde jedoch das deutsche Recht dem EU Recht angepasst: Ohne Einwilligung der
Behörden ist es nun generell erlaubt, öffentliche Daten einzusehen und zu
verwenden. Auch die dafür zu zahlenden Entgelte werden im Gesetz präzisiert.
Die Bundesregierung hat bereits vor zwei Jahren mit GovData
ein Datenportal initiiert, in das die staatlichen Stellen ihre Daten,
Statistiken, Karten usw. eingeben und so der privaten und wirtschaftlichen
Nutzung zugänglich machen (www.GovData.de). Nach der Testphase wird dieses
Pilotprojekt nun verstetigt und von einer eigenen Geschäftsstelle betreut. Neu
ist, dass jetzt auch Bibliotheken, Museen und Archive an GovData
teilnehmen.
Abgelegt unter: 

Freifunk für Alle - Zahl der Freifunk-Knoten in Berlin wächst rasant

19.02.2015 13:56 Uhr

Freifunk ist der bekannteste Name für Initiativen, in denen Bürger ihre WLAN-Zugänge untereinander verbinden und so freie, unabhängige Netzwerkstrukturen aufbauen.

Bereits über 203 „Freifunk“- Knoten gibt es in Berlin. Das war zumindest der Stand vom Oktober 2014. Laut  http://berlin.freifunk.net/network/map/ haben inzwischen allein in Berlin und Umgebung 352 „Freifunker“ ihr Netzwerk angebunden. In einem von vielen Freifunkern bewohnten Berliner Kiez kann das schon mal dazu führen, dass man in der Zahnarztpraxis mit dem Freifunk-Netz surfen kann, wie ein euphorischer Twitter-User berichtet.

Das Ziel?
Die Vision von Freifunk ist die Verbreitung freier, flächendeckender, nicht kommerzieller Netzwerke, die die lokalen Sozialstrukturen fördern und die Kommunikationsmedien demokratisieren. Die Medienanstalt Berlin-Brandenburg (mabb) unterstützt dieses Vorhaben im Rahmen ihrer WLAN- Initiative.

Mehr Informationen und den Link zur kompletten Broschüre gibt es hier: http://www.mabb.de/information/digitale-welt/freifunk.html

Abgelegt unter: 

"Berlin kann ein führender Open-Source-Player in der Big-Data-Analyse werden" - Interview mit Professor Volker Markl vom Berlin Big Data Center

11.04.2014 10:36 Uhr

Big Data ist in aller Munde, denn viele Institutionen und Unternehmen wollen in Zukunft ihre geschäftskritischen Entscheidungen datenbasiert treffen können. Hierbei kann sie das Berlin Big Data Center, kurz BBDC, unterstützen. Wir haben uns mit Professor Volker Markl, dem Sprecher der hochschulübergreifenden Einrichtung, unterhalten.

Lieber Herr Professor Markl, können Sie sich kurz vorstellen und uns etwas zu Ihrer Forschung erzählen?

Gerne. Mein Name ist Volker Markl, ich bin Professor an der Technischen Universität Berlin und verantwortlich für das Fachgebiet Datenbanksysteme und Informationsmanagement. Gleichzeitig habe ich noch eine Status-only-Professur an der Universität in Toronto an der School of Information und bin seit 2009 Sprecher der Forschergruppe Stratosphere der Deutschen Forschungsgemeinschaft (DFG) und sowie Sprecher des Berlin Big Data Center (BBDC), eines Kompetenzzentrums, das vom Bundesministerium für Bildung und Forschung (BMBF) zum Oktober 2014 in Berlin, unter Federführung der TU Berlin,  eingerichtet werden wird.

Ich führe Big Data Forschung schon seit über 15 Jahren durch, also lange bevor dieser Begriff geprägt wurde. Mein derzeit wichtigstes Forschungsprojekt ist die oben genannte DFG Forschergruppe Stratosphere, deren Arbeit, wenn man so will, die Grundlage für das BBDC bildet. Die TU Berlin ist in diesem Projekt mit zwei Fachgebieten eingebunden. Neben mir ist auch Professor Odej Kao mit dabei. Außerdem kommen noch zwei Fachgebiete der HU Berlin hinzu, geleitet durch Professor Christoph Freytag und Professor Ulf Leser und auch Professor Felix Naumann vom Hasso Plattner Institut.

Wir haben gemeinsam ein Open-Source-System zur massiv parallelen Analyse von Informationen entwickelt, welches Sie unter http://stratosphere.eu/ herunterladen können. Stratosphere ist ein weltweit führendes Open-Source-System zur skalierbaren Datenanalyse und eine wichtige Grundlage für das Berliner Kompetenzzentrum zum Thema Big Data. Wir kombinieren im BBDC die Bereiche skalierbares Datenmanagement und maschinelles Lernen. Ziel ist es, gemeinsam ein System für die skalierbare Datenanalyse zu entwickeln, welches insbesondere die Verfahren des maschinellen Lernens, die heutzutage für die Datenanalyse sehr wichtig sind, effizient ausführen zu können. Wir werden diese Technologien im BBDC auf Basis von Statosphere weiterentwickeln.

Was passiert im BBDC dabei genau und warum ist das so wichtig?

Datengetriebene Entscheidungen revolutionieren gerade Wissenschaft, Wirtschaft und Gesellschaft. Wir wollen im BBDC dieses Phänomen, das populär Big Data genannt wird, erforschen und Technologien und Expertise in Deutschland für dieses Zukunftsthema schaffen und damit die Wettbewerbsfähigkeit Deutschland in Wissenschaft und Wirtschaft sichern. Die TU Berlin,  das Zuse Instituts Berlin, das Fritz-Haber Institut, das Deutsche Forschungszentrum für Künstliche Intelligenz und die Beuth Hochschule werden sich im BBDC damit befassen, wie wir Datenanalysen auf großen und heterogenen Datenmengen mit hoher Datenrate effizient verarbeiten können. Das große Problem ist, dass die  Nutzung von Big Data derzeit einigen wenigen Experten oder großen Firmen vorbehalten ist. Privatpersonen oder auch kleinere und mittlere Unternehmen haben hierzu bisher kaum Möglichkeiten oder Expertise. Wir wollen durch das BBDC die Mengen an Menschen, die mit Big Data umgehen können,  vergrößern sowie die Zeit und die Kosten für die Datenanalyse senken. Dies wird zu einer Demokratisierung von Big Data führen und einen großen Mehrwert für Wirtschaft, Wissenschaft und Gesellschaft schaffen. Ein großes Thema wird durch die Frage bestimmt „Wie kann ich Datenanalyse möglichst einfach machen?“ und damit einem möglichst großen Benutzerkreis ermöglichen, derartige Analysen auszuführen. Dabei soll natürlich durch das BBDC auch ein verantwortungsbewusster Umgang mit den Daten sichergestellt werden.
Jeder von uns führt Datenanalysen durch. Bei sehr einfachen Datenmengen nutze ich eventuell eine Tabellenkalkulation. Sobald es dann etwas umfangreicher wird und ich z.B. Regressionen verwende, benötige ich z.B. ‘ R‘, was ja auch Open Source ist, oder eben eine Sprache wie Python, in der ich dann diese Algorithmen beschreibe. Dadurch erkenne ich dann Zusammenhänge und kann dieses „Gold“ aus den Daten heben und Mehrwert generieren.

All diese Verfahren gibt es ja heute schon…

Genau, aber das Problem dabei ist, dass es nur bei relativ kleinen Datenmengen funktioniert oder bei Datenmengen, die man nicht als Big Data bezeichnen würde. Bei Big Data geht es ja nicht nur um die Größe der Datenmengen, sondern wie gesagt, auch darum wie schnell diese Daten neu ins System kommen, wie komplex die Daten und natürlich auch die Analysen sind. Das BBDC will nun neue Verfahren und Technologien entwickeln die diese Analyse massiv parallel vornehmen können. Heute muss ich eigentlich Systemprogrammierung beherrschen, damit ich so etwas machen kann.

Wirkt es sich stark auf den Analyseprozess aus, dass zusätzlich zu den eben beschriebenen großen vorhandenen Datenmengen, kontinuierlich neue große Datenmengen hinzukommen?

Das ist ein weiterer Aspekt. Man spricht dabei im Kontext von Big Data auch von Velocity. Dabei muss ich, während ich die Berechnungen durchführe, auch noch neue Daten berücksichtigen und die Antworten sehr schnell, potentiell kontinuierlich, berechnen. Auch das muss so ein System lösen können.

Für den Mehrwert ist das möglicherweise ganz entscheidend, da die neuen Daten unter Umständen die aus den alten Daten gewonnenen Aussagen beeinflussen. Und das eigentliche Ziel ist es ja, durch die Analyse der Daten, möglichst tragfähige Aussagen über die Zukunft treffen zu können.

Das wäre jetzt anwendungsabhängig, aber in einigen Anwendungen möchte ich genau diese Predictive Analytics wie Trendanalysen oder Vorhersagen durchführen. In anderen Feldern möchte ich vielleicht nur bestehende Zusammenhänge erkennen. Aber insgesamt soll beides möglich sein. Genau das sind eben diese komplexen Zusammenhänge. Ich baue mir ein Modell, das funktioniert und will dieses Modell dann konstant mit neuen Daten füttern.

Und welche Rolle spielt in diesem Zusammenhang Open-Source-Software?

Wir haben ja schon Vorarbeiten in diesem Bereich geleistet und ein offenes System entwickelt, welches sogar weltweit führend ist. Es gibt ein weiteres sehr populäres System im Big-Data-Bereich, das Hadoop-System, das vielleicht bekannt ist. Das von uns entwickelte System Stratosphere, was ich ja eben schon erwähnt habe, ist zwischen 2008 und 2013 hier in Berlin entstanden. Das funktioniert auch wunderbar, Sie können es runterladen und auf Ihrem Laptop laufen lassen. Sie können es aber auch auf einem großen Rechnercluster laufen lassen, wenn Sie das wollen. Dort können Sie dann eigene Datenanalyseprogramme schreiben und das System wird die dann ausführen. Das machen Sie dann z.B. in Java oder Scala.

Das System hat auch schon eine Menge Nutzer und Entwickler. Es gab im letzten November einen Stratosphere-Summit, den 100 Leute aus knapp neun Ländern besucht haben. Außerdem findet es Anwendung in diversen Berliner Startups und anderen Firmen. Somit hat das Ganze schon eine kritische Masse erreicht und verselbstständigt sich auf eine gewisse Art und Weise. Google unterstützt Stratosphere jetzt auch mit dem „Summer of Code“, bei dem Studenten von Google dafür bezahlt werden, dass sie Beiträge zu Stratosphere leisten. Neben solchen Aktivitäten entwickeln auch andere Institutionen gemeinsam mit uns an der TU Berlin das System weiter.

Das Ganze wird auch noch in den europäischen Raum wachsen, weil es ganz massiv vom European Institute of Technology unterstützt wird. So ist, dadurch dass Stratosphere Open Source ist, ein ganz eigenes Ökosystem darum entstanden, was sonst in dieser Form nicht möglich gewesen wäre. Außerdem soll Stratosphere bald an die Apache Foundation übergeben werden, die Incubation ist bereits in Vorbereitung.
Leider haben wir uns den Namen allerdings nicht schützen lassen, so dass wir ihn jetzt ändern müssen. Jemand aus den USA hat sich diesen Namen bereits schützen lassen. Daher wird der Name Stratosphere für das System sich bald ändern.

Es ist nicht immer üblich, dass Projekte, die an Universitäten entwickelt werden, unter eine Open-Source-Lizenz gestellt werden. Warum wurde sich bei Stratosphere dafür entschieden?

Ein Grund ist eher persönlich: Ich bin der Meinung, dass Entwicklungen, die mit öffentlichen Geldern gefördert werden, auch der Öffentlichkeit zu Gute kommen sollten.

Der zweite Punkt ist, dass man eine kritische Masse, sowohl an Benutzern als auch an Entwicklern, nur durch Open Source erreichen kann – gerade in diesem Bereich. Das kann eine Forschergruppe, auch mit mehreren Universitäten im Verbund, gar nicht leisten.

Der dritte Punkt ist, dass eine große Einigkeit sowohl unter Wissenschaftlern als auch unter Wirtschaftskonzernen besteht, dass derartige Infrastrukturen vielfach Open Source sein werden. Hintergrund ist, dass sich das Ökosystem gewaltig geändert hat. Die Firmen erkennen, dass sich Geschäft mit Hilfe von Open-Source-Systemen in diesem Bereich generieren lässt.

Das ist übrigens auch eine große Chance hier für uns in Berlin. Wir können hier einer der weltweit führenden Open-Source-Player im Bereich der Big-Data-Analyse werden.

Sind Sie selber auch in Open-Source-Projekten aktiv?

Ich muss gestehen, nein. Ich habe leider nicht mehr die Zeit selber zu entwickeln. Aber einige meiner Mitarbeiter sind da sehr aktiv. Als Professor entwickelt man ja eher die Visionen. Viel der Anerkennung gebührt da auch den Doktoranden, die sehr viel Entwicklungsarbeit leisten. Aber auch wenn ich selber nicht aktiv bin, sehe in diesem Bereich ein großes Potential.

Ein letzte Frage noch. Benutzen Sie selbst auch Open-Source-Software?

Ja, das tue ich. Ich benutze z.B.  Open Office, allerdings in Kombination mit Closed-Source-Lösungen. Ich arbeite auch mit der Sprache ‚R‘. Außerdem mit Open-Source-Cloudlösungen wie ownCloud. Einige Programme fallen einem dann im Alltag gar nicht mehr auf wie z.B. der Firefox als Webbrowser.

Vielen Dank für das Interview.

Bildquelle: TU Berlin/PR/Ulrich Dahl

Weitere Informationen: http://bbdc.berlin

Abgelegt unter: 

Berliner Big-Data-Tool Stratosphere wurde in den Apache Incubator aufgenommen

16.04.2014 15:28 Uhr

Das in Berlin entstandene Big-Data-Analysetool 'Stratosphere' ist am 14. April als Projekt in den Apache Incubator aufgenommen worden. Jetzt benötigt Stratosphere Unterstützung durch die Community, damit es ein vollwertiges Apache-Projekt werden kann.

Die Meldung zur Übernahme in der Incubator ging am Abend des 14. April über Twitter raus und wird nicht nur (aber vor allem) die Wissenschaftler der TU Berlin aus dem Fachbereich 'Datenbanksysteme und Informationsmanagement' gefreut haben. Dort wurde Stratosphere 2008 geboren und hat sich seitdem stetig weiterentwickelt.

War bis vor einigen Tagen noch von einer Vorbereitung zur Überführung in den Apache Incubator die Rede, so steht nun ein weiteres ambitioniertes Ziel im Fokus: Die Übernahme als vollwertiges Projekt durch die Apache Software Foundation. Bei Stratosphere handelt es sich um ein System zur Big-Data Analyse, welches die Analyse auf besonders großen und heterogenen Daten ermöglichen soll. Damit könnte es auch das durch die Apache Software Soundation geführte System Hadoop ablösen.

Stratosphere soll in den kommenden Jahren vom Berlin Big Data Center (BBDC) um deklarative Spezifikationen, automatische Optimierung, Parallelisierung und Hardwareadaption von fortgeschrittenen Datenanalysen erweitert werden. Für dieses durchaus als ehrgeiziges Ziel zu bezeichnende Vorhaben benötigt Stratosphere nun vor allem die Unterstützung durch die Community. Konkret ist man auf der Suche nach weiteren Nutzern und Committern, also Personen, die etwas zum Projekt beisteuern (wie etwa Programmcode). Helfende Hände sind also bei der Festigung Berlins als weltweit führender Standort in Sachen Big Data herzlich willkommen.

Weitere Informationen zum Thema:

Stratosphere auf GitHub
Antrag zur Aufnahme als Projekt der Apache Software Foundation
Stratosphere-Webseite

Bildquelle: Marius B (CC BY 2.0)

"Frei, offen und unkompliziert" - Fünf Fragen an Florian Effenberger von The Document Foundation

19.05.2014 09:31 Uhr

Am 28. September 2010 wurde The Document Foundation als Organisation ins Leben gerufen und im Februar 2012 als Stiftung rechtlich verankert. Über die in Berlin ansässige Stiftung wird die freie Office-Suite Libre Office herausgegeben. Wir haben uns mit dem Geschäftsführer Florian Effenberger über Freie und Open-Source-Software unterhalten.


Herr Effenberger, bitte stellen Sie sich und Ihre Institution kurz vor.

The Document Foundation ist eine gemeinnützige, rechtsfähige Stiftung des bürgerlichen Rechts mit Sitz in Berlin. Gegründet im Februar 2012, und hervorgegangen aus dem ehemaligen OpenOffice.org-Projekt, ist ihre Aufgabe die Förderung und Entwicklung von Office-Software zur freien Nutzung durch jedermann. Mit LibreOffice gibt sie die bekannte freie Office-Suite in über 110 Sprachen und für alle bekannten Betriebssysteme heraus, die weltweit von Millionen Menschen eingesetzt wird, und auf das offene OpenDocument-Format setzt.

Neben der Desktop-Version, die kontinuierlich verbessert und erweitert wird, arbeitet The Document Foundation derzeit an einer webbasierten Variante zur Nutzung im Browser und Installation im eigenen Netzwerk ("Private Cloud"), die zudem um Kollaborations-Features wie das gemeinsame Bearbeiten von Tabellen und Dokumenten ergänzt wird.
Ebenfalls in Planung ist eine mobile Version für Smartphones und Tablets, die das Bearbeiten von Dokumenten auch von unterwegs aus ermöglichen wird.

Die Entwicklung des Programms wird dabei von hunderten Freiwilligen aus aller Welt vorangetrieben, was sich auch in der internationalen Besetzung des Vorstands widerspiegelt. Innovativ ist die Organisation der Stiftung: Durch das eigens ins Leben gerufene Mitglieder-Kuratorium, das derzeit 191 Personen aus aller Welt umfasst und quartalsweise neu besetzt werden kann, beteiligt die Document Foundation in ihrem meritokratischen Ansatz all diejenigen, die sich um das Wohl der Stiftung verdient gemacht haben. Zudem ist Transparenz oberstes Gebot:
So finden nicht nur sämtliche Vorstandssitzung in öffentlicher Telefonkonferenz statt, sondern beispielsweise auch die Buchhaltung wird - um persönliche Daten bereinigt - zeitnah für jedermann veröffentlicht.

Warum haben Sie sich für die Nutzung von Freier und Open-Source-Software entschieden?

Wir sind selbst Anbieter und zugleich Anwender von freier Software, und wissen deren Vorzüge zu schätzen. Mehr denn je sind heutzutage offene Standards und freie Software wichtig, geben Sie dem Anwender doch essentielle Freiheiten und die volle Kontrolle über sein digitales Leben, unabhängig von wirtschaftlichen Interessen und einzelnen Unternehmen.

Software wie LibreOffice wird erfolgreich von Privatanwendern, Unternehmen und der öffentlichen Hand eingesetzt, und bietet neben den Kosteneinsparungen auch zahlreiche weitere Vorteile, die proprietäre Software nicht zu leisten vermag, wie beispielsweise die Verfügbarkeit auch in seltenen Sprachen und Dialekten, und die Möglichkeit, aktiv selbst zur Verbesserung und Weiterentwicklung der Software beizutragen.

Wie beurteilen Sie die Entwicklung von von Freier und Open-Source-Software in den letzten Jahren und insgesamt?

Im letzten Jahrzehnt hat sich die Nutzung von freier Software stark verändert. Während sie anfangs in der breiten Masse noch unbekannt war, hat sie sich mittlerweile im Markt etabliert, und es sind ganze Unternehmen entstanden, die sich mit der Entwicklung, Vermarktung und Unterstützung freier Software beschäftigen. Freie Software ist im Markt angekommen, ist im Bewusstsein der Menschen verankert, und spielt eine immer wichtigere Rolle in jedermanns Alltag.

Was verbindet Sie persönlich mit Freier und Open-Source-Software?

So frei, offen und unkompliziert wie freie Software, so sind auch die dahinterstehenden Menschen. Ich habe in den letzten zwölf Jahren meiner Beschäftigung mit freier Software viele nette und interessante Menschen kennenlernen dürfen, viele sind mittlerweile enge und gute Freunde geworden. Ich konnte einen Einblick in fremde Kulturen erlangen, und habe Erfahrungen gemacht, die ich definitiv nicht mehr missen möchte, und für die ich sehr dankbar bin.

Was würden Sie Gründern empfehlen, die auf Freie und Open-Source-Software setzen wollen?

Die Entscheidung, auf freie Software zu setzen, ist absolut richtig und legt das Fundament für ein erfolgreiches Unternehmen, losgelöst von engen Grenzen proprietärer Software. Bei Fragen oder Problemen gibt es eine hilfreiche Gemeinschaft von Anwendern, die gerne zur Seite stehen.
Und für komplexere Fragestellungen und professionellen Support gibt es eine Vielzahl von Unternehmen, die hervorragende Dienste anbieten.
Daher: Meinen Glückwunsch zu dieser richtigen und guten Entscheidung, auf freie Software zu setzen!

Bildquelle: Florian Effenberger

Abgelegt unter: